آغاز تحقیقات کمیسیون تجارت فدرال آمریکا درباره ایمنی چتباتها
کمیسیون تجارت فدرال ایالات متحده (FTC) تحقیقات گستردهای را درباره شرکتهای بزرگ فعال در حوزه هوش مصنوعی آغاز کرده است تا بررسی کند این شرکتها چگونه ایمنی کودکان را تضمین میکنند و کاربران را در برابر خطرات احتمالی چتباتهای مبتنی بر هوش مصنوعی محافظت مینمایند.
این اقدام در حالی صورت میگیرد که محبوبیت ابزارهای هوش مصنوعی مانند ChatGPT و Google Gemini به سرعت در حال افزایش است و نگرانیها درباره تأثیرات منفی این فناوریها بر کودکان و نوجوانان نیز رو به رشد است. کارشناسان حوزه فناوری و والدین هشدار میدهند که بدون نظارت دقیق، استفاده از این ابزارها میتواند کودکان را در معرض اطلاعات نادرست، محتوای نامناسب یا سوءاستفادههای احتمالی قرار دهد.
شرکتهای هدف تحقیقات FTC
در این تحقیقات، شرکتهای بزرگی مانند OpenAI (سازنده ChatGPT)، Google (سازنده Gemini)، Microsoft و Anthropic مورد بررسی قرار گرفتهاند. این شرکتها در حال حاضر در خط مقدم توسعه فناوریهای هوش مصنوعی مولد قرار دارند و محصولات آنها توسط میلیونها کاربر در سراسر جهان مورد استفاده قرار میگیرد.
نگرانیهای اصلی درباره چتباتها
یکی از نگرانیهای اصلی FTC این است که چتباتهای هوش مصنوعی ممکن است اطلاعات نادرست یا گمراهکننده ارائه دهند، محتوای نامناسب برای کودکان تولید کنند یا حتی به عنوان ابزاری برای سوءاستفاده از کودکان مورد استفاده قرار گیرند. همچنین، این نگرانی وجود دارد که دادههای شخصی کودکان بدون رضایت والدین جمعآوری و ذخیره شود.
درخواست اطلاعات از شرکتهای هوش مصنوعی
FTC با ارسال نامههایی به شرکتهای مذکور، خواستار ارائه اطلاعات دقیق درباره نحوه آموزش مدلهای هوش مصنوعی، سیاستهای مربوط به حفظ حریم خصوصی کاربران، اقدامات انجامشده برای جلوگیری از انتشار محتوای مضر و همچنین روشهای شناسایی و حذف دادههای مربوط به کودکان شده است. این کمیسیون همچنین به دنبال بررسی این موضوع است که آیا شرکتها اقدامات کافی برای جلوگیری از سوءاستفاده از چتباتها توسط افراد سودجو انجام دادهاند یا خیر.
واکنش شرکتهای هوش مصنوعی
OpenAI و Google در واکنش به این تحقیقات تأکید کردهاند که ایمنی کاربران، بهویژه کودکان، در اولویت راهبردی آنها قرار دارد. این دو غول فناوری اعلام کردهاند که بهطور مداوم در حال بهبود سیاستها، ابزارها و فناوریهای نظارتی خود هستند تا محیطی امنتر برای استفاده از چتباتها و دیگر محصولات مبتنی بر هوش مصنوعی فراهم کنند.
سخنگوی OpenAI در بیانیهای رسمی گفت: «ما به همکاری کامل با FTC متعهد هستیم و باور داریم که شفافیت، پاسخگویی و ایجاد استانداردهای مشترک، از عناصر کلیدی برای پیشرفت مسئولانه هوش مصنوعی محسوب میشوند.» او همچنین اشاره کرد که OpenAI در حال توسعه مکانیزمهای بیشتری برای محدود کردن محتوای مضر و افزایش قابلیتهای محافظتی در برابر سوءاستفاده از چتباتها است.
از سوی دیگر، Google نیز اعلام کرده که سرمایهگذاریهای گستردهای برای ارتقای ایمنی کودکان در فضای آنلاین انجام داده و همچنان بر بهروزرسانی چارچوبهای امنیتی و استفاده از فناوریهای نوین یادگیری ماشین برای جلوگیری از انتشار محتوای آسیبزا تمرکز خواهد کرد.
نگرانیهای والدین و کارشناسان
والدین و کارشناسان حوزه فناوری مدتهاست نسبت به پیامدهای احتمالی استفاده کودکان از چتباتهای هوش مصنوعی هشدار میدهند. به اعتقاد بسیاری از آنها، این ابزارهای نوظهور میتوانند کودکان را در معرض طیف گستردهای از خطرات قرار دهند؛ از دسترسی به اطلاعات نادرست و محتوای گمراهکننده گرفته تا مواجهه با تبلیغات هدفمند یا حتی گفتگوهای نامناسبی که ممکن است تأثیر منفی بر رشد فکری و روانی آنها بگذارد.
نگرانیها فقط به این مسائل محدود نمیشود. موضوع حساس دیگری که بارها مورد توجه قرار گرفته، بحث حریم خصوصی کودکان است. بسیاری از والدین و متخصصان بر این باورند که دادههای شخصی کودکان ممکن است توسط برخی پلتفرمها جمعآوری شده و برای اهداف تجاری یا الگوریتمی مورد استفاده قرار گیرد. چنین رویکردی نه تنها خطرات امنیتی و نقض حریم خصوصی را به دنبال دارد، بلکه میتواند به سوءاستفادههای جدی از دادهها منجر شود.
برخی کارشناسان حتی تأکید میکنند که نبود چارچوبهای قانونی مشخص در بسیاری از کشورها باعث شده شرکتهای فناوری بدون محدودیت کافی، دادههای کاربران کمسنوسال را تحلیل و ذخیره کنند. به همین دلیل، فشار بر نهادهای نظارتی مانند FTC برای مداخله و وضع قوانین سختگیرانهتر افزایش یافته است.
قوانین فعلی و خلأهای قانونی
در حال حاضر، قوانین مشخص و جامعی که به طور ویژه کودکان را در برابر خطرات ناشی از هوش مصنوعی محافظت کند، وجود ندارد. هرچند برخی مقررات کلی در حوزه اینترنت و حریم خصوصی اعمال میشوند، اما کارشناسان معتقدند این چارچوبها توانایی پاسخگویی به چالشهای نوظهور هوش مصنوعی را ندارند.
در ایالات متحده، قانون حفاظت از حریم خصوصی کودکان در فضای آنلاین (COPPA) یکی از معدود قوانین مشخص در این حوزه است. این قانون شرکتها و پلتفرمها را ملزم میکند تا پیش از جمعآوری اطلاعات شخصی از کودکان زیر ۱۳ سال، رضایت والدین را کسب کنند. هدف از این قانون جلوگیری از سوءاستفاده تجاری و حفظ امنیت دادههای حساس کودکان بوده است.
با این حال، بسیاری از متخصصان حقوقی و کارشناسان فناوری بر این باورند که قانون COPPA با گذشت بیش از دو دهه از تصویب آن، دیگر پاسخگوی تهدیدات و پیچیدگیهای فناوریهای نوین مانند هوش مصنوعی و چتباتهای هوشمند نیست. به عنوان نمونه، این قانون بهطور مستقیم به مسائل مرتبط با یادگیری ماشین، الگوریتمهای توصیهگر یا تعامل زنده کودکان با رباتهای گفتوگویی نمیپردازد.
به همین دلیل، بحثهای گستردهای درباره لزوم بازنگری و بهروزرسانی چارچوبهای قانونی موجود شکل گرفته است. کارشناسان پیشنهاد میکنند که قوانین جدید نه تنها باید جمعآوری دادهها را محدود کنند، بلکه باید شامل الزاماتی در زمینه شفافیت الگوریتمی، ارزیابی ریسک و طراحی ابزارهای ایمن برای کودکان نیز باشند. فشارهای اخیر از سوی نهادهای نظارتی مانند FTC نیز نشان میدهد که احتمال تغییرات گسترده در آینده نزدیک وجود دارد.
اقدامات پیشنهادی برای افزایش ایمنی
FTC در بیانیه خود اعلام کرده است که هدف از این تحقیقات، شناسایی نقاط ضعف موجود و ارائه راهکارهایی برای افزایش ایمنی کاربران، به ویژه کودکان، در فضای هوش مصنوعی است. برخی از اقدامات پیشنهادی شامل توسعه ابزارهای فیلترینگ پیشرفتهتر، آموزش والدین و کودکان درباره خطرات احتمالی و الزام شرکتها به شفافیت بیشتر درباره نحوه استفاده از دادهها است.
تأثیرات احتمالی تحقیقات بر آینده هوش مصنوعی
این تحقیقات میتواند تأثیرات گستردهای بر صنعت هوش مصنوعی داشته باشد. اگر FTC به این نتیجه برسد که شرکتها اقدامات کافی برای محافظت از کودکان انجام ندادهاند، ممکن است جریمههای سنگینی برای آنها در نظر گرفته شود. به عنوان مثال، در سالهای اخیر شرکتهایی مانند TikTok و YouTube به دلیل نقض قوانین حریم خصوصی کودکان، به ترتیب 5.7 میلیون دلار و 170 میلیون دلار جریمه شدند. این احتمال وجود دارد که شرکتهای فعال در حوزه هوش مصنوعی نیز با جریمههایی مشابه یا حتی سنگینتر مواجه شوند.
آینده مقرراتگذاری در حوزه هوش مصنوعی
با توجه به سرعت خیرهکننده رشد فناوریهای هوش مصنوعی و نفوذ روزافزون آنها در جنبههای مختلف زندگی روزمره، از آموزش و سرگرمی گرفته تا مراقبتهای پزشکی و خدمات مالی، نگرانیها درباره پیامدهای احتمالی این فناوری بیش از هر زمان دیگری جدی شده است. بسیاری از کارشناسان بر این باورند که نبود چارچوبهای قانونی کافی میتواند کودکان و سایر کاربران را در معرض خطراتی همچون دسترسی به محتوای نامناسب، سوءاستفاده از دادههای شخصی یا حتی دستکاریهای الگوریتمی قرار دهد.
به همین دلیل، درخواستها برای تدوین مقررات جدید و جامع که بهطور خاص به ریسکهای هوش مصنوعی بپردازد، افزایش یافته است. این مقررات میتوانند شامل الزام شرکتها به شفافیت در مورد نحوه استفاده از دادهها، ایجاد استانداردهای ایمنی برای محصولات مبتنی بر هوش مصنوعی و همچنین تعریف مجازاتهای سختگیرانه برای تخلفات احتمالی باشند.
برخی کشورها و نهادهای بینالمللی نیز گامهای اولیه را در این مسیر برداشتهاند. به عنوان نمونه، اتحادیه اروپا از پیشگامان تنظیم مقررات هوش مصنوعی محسوب میشود و در حال بررسی و تدوین قوانینی جامع برای مدیریت ریسکهای ناشی از این فناوری است. این قوانین، که تحت عنوان «قانون هوش مصنوعی اتحادیه اروپا» شناخته میشوند، قرار است نهتنها بر حفاظت از کودکان تمرکز داشته باشند، بلکه تمامی کاربران را از تهدیدات احتمالی ناشی از کاربردهای نادرست یا غیرمسئولانه هوش مصنوعی مصون نگه دارند.
کارشناسان پیشبینی میکنند که با افزایش فشار افکار عمومی و نگرانیهای والدین، سایر کشورها نیز بهزودی به سمت ایجاد مقررات مشابه حرکت کنند تا از یکسو نوآوری در حوزه هوش مصنوعی متوقف نشود و از سوی دیگر، ایمنی کاربران در سطح جهانی تضمین گردد.
جمعبندی
تحقیقات جدید FTC درباره ایمنی چتباتهای هوش مصنوعی و حفاظت از کودکان، نقطه عطفی در مسیر توسعه مسئولانه این فناوریها به شمار میرود. با افزایش نگرانیها درباره تأثیرات منفی هوش مصنوعی بر کودکان، انتظار میرود که شرکتهای فعال در این حوزه اقدامات بیشتری برای افزایش شفافیت، بهبود سیاستهای حریم خصوصی و توسعه ابزارهای ایمنی انجام دهند. در نهایت، موفقیت این تلاشها به همکاری نزدیک میان شرکتهای فناوری، قانونگذاران و جامعه بستگی دارد.