ChatGPT برای نوجوانان امن‌تر می‌شود

ChatGPT برای نوجوانان امن‌تر می‌شود

سم آلتمن، مدیرعامل OpenAI، اعلام کرد که این شرکت با هدف افزایش ایمنی کاربران نوجوان، تغییرات مهمی در قوانین ChatGPT اعمال خواهد کرد. این تغییرات شامل ممنوعیت کامل گفتگو درباره خودکشی و خودآزاری و ایجاد محدودیت‌های جدید برای افراد زیر 18 سال است.

در آستانه جلسه مهم سنای آمریکا درباره تأثیر هوش مصنوعی بر جامعه، OpenAI تصمیمی تازه برای ارتقای ایمنی کاربران نوجوان گرفت. سم آلتمن در بیانیه‌ای توضیح داد که ChatGPT دیگر اجازه ورود به گفتگو درباره خودکشی، خودآزاری یا موضوعات وسوسه‌انگیز مشابه را نخواهد داشت. این تصمیم پاسخی به نگرانی‌های فزاینده درباره سلامت روان نوجوانان است که در سال‌های اخیر به‌طور گسترده از چت‌بات‌ها استفاده می‌کنند.

زمینه این تصمیم به ماجرای تلخ خودکشی یک نوجوان پس از استفاده از ChatGPT بازمی‌گردد. پدر این نوجوان، «متیو رین»، در جلسه‌ای در کنگره شهادت داد که ChatGPT در طول مکالمات متعدد بیش از 1275 بار به کلمه «خودکشی» اشاره کرده و فرزندش را به این مسیر سوق داده بود. او گفت: «چیزی که در ابتدا یک دستیار تکالیف بود، به‌تدریج به یک محرم اسرار و سپس مربی خودکشی تبدیل شد.» این شهادت و فشار افکار عمومی باعث شد OpenAI بازنگری اساسی در رویکرد خود داشته باشد.

بر اساس برنامه جدید، OpenAI یک سیستم پیش‌بینی سن توسعه خواهد داد که بتواند کاربران زیر 18 سال را شناسایی کند. اگر سیستم درباره سن کاربر اطمینان نداشته باشد، به صورت پیش‌فرض حالت «کاربران نوجوان» فعال می‌شود. در این حالت، تجربه کاربری محدودتر خواهد بود و گفتگو درباره موضوعات خطرناک کاملاً ممنوع می‌شود؛ حتی اگر در قالب نویسندگی خلاق یا داستان‌سرایی مطرح شود.

ایلان ماسک هوش مصنوعی امن برای کودکان می‌سازد

همچنین در صورتی که ChatGPT تشخیص دهد کاربر نوجوانی دچار افکار خودکشی است، این شرکت اعلام کرده که در شرایط بحرانی تلاش خواهد کرد با والدین او یا حتی مقامات مسئول تماس بگیرد. علاوه بر این، قابلیت‌هایی مانند اتصال حساب نوجوان به والدین، غیرفعال‌کردن تاریخچه گفتگو و ارسال هشدار در «لحظات پریشانی حاد» به این اکوسیستم افزوده خواهد شد.

آلتمن در یادداشت خود تأکید کرده که سه اصل ایمنی، آزادی و حریم خصوصی همیشه در تعارض قرار دارند، اما در مورد نوجوانان، ایمنی بر هر اصل دیگری اولویت دارد. او گفت: «با توجه به قدرت و تازگی فناوری هوش مصنوعی، افراد زیر سن قانونی نیازمند محافظت بیشتری هستند.»

آمارها نشان می‌دهد حدود سه‌چهارم نوجوانان هم‌اکنون از ابزارهای هوش مصنوعی مانند Character AI یا محصولات متا استفاده می‌کنند. کارشناسان این روند را به یک بحران سلامت عمومی تشبیه کرده‌اند. تصمیم اخیر OpenAI می‌تواند گامی مهم در جهت ایجاد محیطی امن‌تر برای این گروه سنی باشد و شاید الگویی برای دیگر شرکت‌های فعال در حوزه هوش مصنوعی شود.

آیا این مقاله برای شما مفید بود؟
تقریبا
خیر

دیدگاهتان را بنویسید

ارسال دیدگاه به معنی این است که شما ابتدا قوانین ارسال دیدگاه را مطالعه کرده‌اید و با آن موافق هستید.