NIAHCKCOLB NARI

ایران بلاکچین

بررسی ایمنی چت‌بات‌ها؛ کودکان در خطر؟

بررسی ایمنی چت‌بات‌ها؛ کودکان در خطر؟

آغاز تحقیقات کمیسیون تجارت فدرال آمریکا درباره ایمنی چت‌بات‌ها

کمیسیون تجارت فدرال ایالات متحده (FTC) تحقیقات گسترده‌ای را درباره شرکت‌های بزرگ فعال در حوزه هوش مصنوعی آغاز کرده است تا بررسی کند این شرکت‌ها چگونه ایمنی کودکان را تضمین می‌کنند و کاربران را در برابر خطرات احتمالی چت‌بات‌های مبتنی بر هوش مصنوعی محافظت می‌نمایند.

این اقدام در حالی صورت می‌گیرد که محبوبیت ابزارهای هوش مصنوعی مانند ChatGPT و Google Gemini به سرعت در حال افزایش است و نگرانی‌ها درباره تأثیرات منفی این فناوری‌ها بر کودکان و نوجوانان نیز رو به رشد است. کارشناسان حوزه فناوری و والدین هشدار می‌دهند که بدون نظارت دقیق، استفاده از این ابزارها می‌تواند کودکان را در معرض اطلاعات نادرست، محتوای نامناسب یا سوءاستفاده‌های احتمالی قرار دهد.

شرکت‌های هدف تحقیقات FTC

در این تحقیقات، شرکت‌های بزرگی مانند OpenAI (سازنده ChatGPT)، Google (سازنده Gemini)، Microsoft و Anthropic مورد بررسی قرار گرفته‌اند. این شرکت‌ها در حال حاضر در خط مقدم توسعه فناوری‌های هوش مصنوعی مولد قرار دارند و محصولات آن‌ها توسط میلیون‌ها کاربر در سراسر جهان مورد استفاده قرار می‌گیرد.

نگرانی‌های اصلی درباره چت‌بات‌ها

یکی از نگرانی‌های اصلی FTC این است که چت‌بات‌های هوش مصنوعی ممکن است اطلاعات نادرست یا گمراه‌کننده ارائه دهند، محتوای نامناسب برای کودکان تولید کنند یا حتی به عنوان ابزاری برای سوءاستفاده از کودکان مورد استفاده قرار گیرند. همچنین، این نگرانی وجود دارد که داده‌های شخصی کودکان بدون رضایت والدین جمع‌آوری و ذخیره شود.

درخواست اطلاعات از شرکت‌های هوش مصنوعی

FTC با ارسال نامه‌هایی به شرکت‌های مذکور، خواستار ارائه اطلاعات دقیق درباره نحوه آموزش مدل‌های هوش مصنوعی، سیاست‌های مربوط به حفظ حریم خصوصی کاربران، اقدامات انجام‌شده برای جلوگیری از انتشار محتوای مضر و همچنین روش‌های شناسایی و حذف داده‌های مربوط به کودکان شده است. این کمیسیون همچنین به دنبال بررسی این موضوع است که آیا شرکت‌ها اقدامات کافی برای جلوگیری از سو‌ءاستفاده از چت‌بات‌ها توسط افراد سودجو انجام داده‌اند یا خیر.

واکنش شرکت‌های هوش مصنوعی

OpenAI و Google در واکنش به این تحقیقات تأکید کرده‌اند که ایمنی کاربران، به‌ویژه کودکان، در اولویت راهبردی آن‌ها قرار دارد. این دو غول فناوری اعلام کرده‌اند که به‌طور مداوم در حال بهبود سیاست‌ها، ابزارها و فناوری‌های نظارتی خود هستند تا محیطی امن‌تر برای استفاده از چت‌بات‌ها و دیگر محصولات مبتنی بر هوش مصنوعی فراهم کنند.

سخنگوی OpenAI در بیانیه‌ای رسمی گفت: «ما به همکاری کامل با FTC متعهد هستیم و باور داریم که شفافیت، پاسخگویی و ایجاد استانداردهای مشترک، از عناصر کلیدی برای پیشرفت مسئولانه هوش مصنوعی محسوب می‌شوند.» او همچنین اشاره کرد که OpenAI در حال توسعه مکانیزم‌های بیشتری برای محدود کردن محتوای مضر و افزایش قابلیت‌های محافظتی در برابر سوءاستفاده از چت‌بات‌ها است.

از سوی دیگر، Google نیز اعلام کرده که سرمایه‌گذاری‌های گسترده‌ای برای ارتقای ایمنی کودکان در فضای آنلاین انجام داده و همچنان بر به‌روزرسانی چارچوب‌های امنیتی و استفاده از فناوری‌های نوین یادگیری ماشین برای جلوگیری از انتشار محتوای آسیب‌زا تمرکز خواهد کرد.

نگرانی‌های والدین و کارشناسان

والدین و کارشناسان حوزه فناوری مدت‌هاست نسبت به پیامدهای احتمالی استفاده کودکان از چت‌بات‌های هوش مصنوعی هشدار می‌دهند. به اعتقاد بسیاری از آن‌ها، این ابزارهای نوظهور می‌توانند کودکان را در معرض طیف گسترده‌ای از خطرات قرار دهند؛ از دسترسی به اطلاعات نادرست و محتوای گمراه‌کننده گرفته تا مواجهه با تبلیغات هدفمند یا حتی گفتگوهای نامناسبی که ممکن است تأثیر منفی بر رشد فکری و روانی آن‌ها بگذارد.

نگرانی‌ها فقط به این مسائل محدود نمی‌شود. موضوع حساس دیگری که بارها مورد توجه قرار گرفته، بحث حریم خصوصی کودکان است. بسیاری از والدین و متخصصان بر این باورند که داده‌های شخصی کودکان ممکن است توسط برخی پلتفرم‌ها جمع‌آوری شده و برای اهداف تجاری یا الگوریتمی مورد استفاده قرار گیرد. چنین رویکردی نه تنها خطرات امنیتی و نقض حریم خصوصی را به دنبال دارد، بلکه می‌تواند به سوءاستفاده‌های جدی از داده‌ها منجر شود.

برخی کارشناسان حتی تأکید می‌کنند که نبود چارچوب‌های قانونی مشخص در بسیاری از کشورها باعث شده شرکت‌های فناوری بدون محدودیت کافی، داده‌های کاربران کم‌سن‌وسال را تحلیل و ذخیره کنند. به همین دلیل، فشار بر نهادهای نظارتی مانند FTC برای مداخله و وضع قوانین سخت‌گیرانه‌تر افزایش یافته است.

قوانین فعلی و خلأهای قانونی

در حال حاضر، قوانین مشخص و جامعی که به طور ویژه کودکان را در برابر خطرات ناشی از هوش مصنوعی محافظت کند، وجود ندارد. هرچند برخی مقررات کلی در حوزه اینترنت و حریم خصوصی اعمال می‌شوند، اما کارشناسان معتقدند این چارچوب‌ها توانایی پاسخگویی به چالش‌های نوظهور هوش مصنوعی را ندارند.

در ایالات متحده، قانون حفاظت از حریم خصوصی کودکان در فضای آنلاین (COPPA) یکی از معدود قوانین مشخص در این حوزه است. این قانون شرکت‌ها و پلتفرم‌ها را ملزم می‌کند تا پیش از جمع‌آوری اطلاعات شخصی از کودکان زیر ۱۳ سال، رضایت والدین را کسب کنند. هدف از این قانون جلوگیری از سوءاستفاده تجاری و حفظ امنیت داده‌های حساس کودکان بوده است.

با این حال، بسیاری از متخصصان حقوقی و کارشناسان فناوری بر این باورند که قانون COPPA با گذشت بیش از دو دهه از تصویب آن، دیگر پاسخگوی تهدیدات و پیچیدگی‌های فناوری‌های نوین مانند هوش مصنوعی و چت‌بات‌های هوشمند نیست. به عنوان نمونه، این قانون به‌طور مستقیم به مسائل مرتبط با یادگیری ماشین، الگوریتم‌های توصیه‌گر یا تعامل زنده کودکان با ربات‌های گفت‌وگویی نمی‌پردازد.

به همین دلیل، بحث‌های گسترده‌ای درباره لزوم بازنگری و به‌روزرسانی چارچوب‌های قانونی موجود شکل گرفته است. کارشناسان پیشنهاد می‌کنند که قوانین جدید نه تنها باید جمع‌آوری داده‌ها را محدود کنند، بلکه باید شامل الزاماتی در زمینه شفافیت الگوریتمی، ارزیابی ریسک و طراحی ابزارهای ایمن برای کودکان نیز باشند. فشارهای اخیر از سوی نهادهای نظارتی مانند FTC نیز نشان می‌دهد که احتمال تغییرات گسترده در آینده نزدیک وجود دارد.

اقدامات پیشنهادی برای افزایش ایمنی

FTC در بیانیه خود اعلام کرده است که هدف از این تحقیقات، شناسایی نقاط ضعف موجود و ارائه راهکارهایی برای افزایش ایمنی کاربران، به ویژه کودکان، در فضای هوش مصنوعی است. برخی از اقدامات پیشنهادی شامل توسعه ابزارهای فیلترینگ پیشرفته‌تر، آموزش والدین و کودکان درباره خطرات احتمالی و الزام شرکت‌ها به شفافیت بیشتر درباره نحوه استفاده از داده‌ها است.

تأثیرات احتمالی تحقیقات بر آینده هوش مصنوعی

این تحقیقات می‌تواند تأثیرات گسترده‌ای بر صنعت هوش مصنوعی داشته باشد. اگر FTC به این نتیجه برسد که شرکت‌ها اقدامات کافی برای محافظت از کودکان انجام نداده‌اند، ممکن است جریمه‌های سنگینی برای آن‌ها در نظر گرفته شود. به عنوان مثال، در سال‌های اخیر شرکت‌هایی مانند TikTok و YouTube به دلیل نقض قوانین حریم خصوصی کودکان، به ترتیب 5.7 میلیون دلار و 170 میلیون دلار جریمه شدند. این احتمال وجود دارد که شرکت‌های فعال در حوزه هوش مصنوعی نیز با جریمه‌هایی مشابه یا حتی سنگین‌تر مواجه شوند.

آینده مقررات‌گذاری در حوزه هوش مصنوعی

با توجه به سرعت خیره‌کننده رشد فناوری‌های هوش مصنوعی و نفوذ روزافزون آن‌ها در جنبه‌های مختلف زندگی روزمره، از آموزش و سرگرمی گرفته تا مراقبت‌های پزشکی و خدمات مالی، نگرانی‌ها درباره پیامدهای احتمالی این فناوری بیش از هر زمان دیگری جدی شده است. بسیاری از کارشناسان بر این باورند که نبود چارچوب‌های قانونی کافی می‌تواند کودکان و سایر کاربران را در معرض خطراتی همچون دسترسی به محتوای نامناسب، سوءاستفاده از داده‌های شخصی یا حتی دستکاری‌های الگوریتمی قرار دهد.

به همین دلیل، درخواست‌ها برای تدوین مقررات جدید و جامع که به‌طور خاص به ریسک‌های هوش مصنوعی بپردازد، افزایش یافته است. این مقررات می‌توانند شامل الزام شرکت‌ها به شفافیت در مورد نحوه استفاده از داده‌ها، ایجاد استانداردهای ایمنی برای محصولات مبتنی بر هوش مصنوعی و همچنین تعریف مجازات‌های سخت‌گیرانه برای تخلفات احتمالی باشند.

برخی کشورها و نهادهای بین‌المللی نیز گام‌های اولیه را در این مسیر برداشته‌اند. به عنوان نمونه، اتحادیه اروپا از پیشگامان تنظیم مقررات هوش مصنوعی محسوب می‌شود و در حال بررسی و تدوین قوانینی جامع برای مدیریت ریسک‌های ناشی از این فناوری است. این قوانین، که تحت عنوان «قانون هوش مصنوعی اتحادیه اروپا» شناخته می‌شوند، قرار است نه‌تنها بر حفاظت از کودکان تمرکز داشته باشند، بلکه تمامی کاربران را از تهدیدات احتمالی ناشی از کاربردهای نادرست یا غیرمسئولانه هوش مصنوعی مصون نگه دارند.

کارشناسان پیش‌بینی می‌کنند که با افزایش فشار افکار عمومی و نگرانی‌های والدین، سایر کشورها نیز به‌زودی به سمت ایجاد مقررات مشابه حرکت کنند تا از یک‌سو نوآوری در حوزه هوش مصنوعی متوقف نشود و از سوی دیگر، ایمنی کاربران در سطح جهانی تضمین گردد.

جمع‌بندی

تحقیقات جدید FTC درباره ایمنی چت‌بات‌های هوش مصنوعی و حفاظت از کودکان، نقطه عطفی در مسیر توسعه مسئولانه این فناوری‌ها به شمار می‌رود. با افزایش نگرانی‌ها درباره تأثیرات منفی هوش مصنوعی بر کودکان، انتظار می‌رود که شرکت‌های فعال در این حوزه اقدامات بیشتری برای افزایش شفافیت، بهبود سیاست‌های حریم خصوصی و توسعه ابزارهای ایمنی انجام دهند. در نهایت، موفقیت این تلاش‌ها به همکاری نزدیک میان شرکت‌های فناوری، قانون‌گذاران و جامعه بستگی دارد.

منبع

بیشتر بخوانید!

توجه

لطفا در صورت مشاهده دیدگاه‌های حاوی توهین و فحاشی یا خلاف عرف جامعه با گزارش سریع آن‌ها، به ما در حفظ سلامت بستر ارتباطی کاربران کمک کنید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *