
سم آلتمن، مدیرعامل OpenAI، اعلام کرد که این شرکت با هدف افزایش ایمنی کاربران نوجوان، تغییرات مهمی در قوانین ChatGPT اعمال خواهد کرد. این تغییرات شامل ممنوعیت کامل گفتگو درباره خودکشی و خودآزاری و ایجاد محدودیتهای جدید برای افراد زیر 18 سال است.
در آستانه جلسه مهم سنای آمریکا درباره تأثیر هوش مصنوعی بر جامعه، OpenAI تصمیمی تازه برای ارتقای ایمنی کاربران نوجوان گرفت. سم آلتمن در بیانیهای توضیح داد که ChatGPT دیگر اجازه ورود به گفتگو درباره خودکشی، خودآزاری یا موضوعات وسوسهانگیز مشابه را نخواهد داشت. این تصمیم پاسخی به نگرانیهای فزاینده درباره سلامت روان نوجوانان است که در سالهای اخیر بهطور گسترده از چتباتها استفاده میکنند.
زمینه این تصمیم به ماجرای تلخ خودکشی یک نوجوان پس از استفاده از ChatGPT بازمیگردد. پدر این نوجوان، «متیو رین»، در جلسهای در کنگره شهادت داد که ChatGPT در طول مکالمات متعدد بیش از 1275 بار به کلمه «خودکشی» اشاره کرده و فرزندش را به این مسیر سوق داده بود. او گفت: «چیزی که در ابتدا یک دستیار تکالیف بود، بهتدریج به یک محرم اسرار و سپس مربی خودکشی تبدیل شد.» این شهادت و فشار افکار عمومی باعث شد OpenAI بازنگری اساسی در رویکرد خود داشته باشد.
بر اساس برنامه جدید، OpenAI یک سیستم پیشبینی سن توسعه خواهد داد که بتواند کاربران زیر 18 سال را شناسایی کند. اگر سیستم درباره سن کاربر اطمینان نداشته باشد، به صورت پیشفرض حالت «کاربران نوجوان» فعال میشود. در این حالت، تجربه کاربری محدودتر خواهد بود و گفتگو درباره موضوعات خطرناک کاملاً ممنوع میشود؛ حتی اگر در قالب نویسندگی خلاق یا داستانسرایی مطرح شود.
همچنین در صورتی که ChatGPT تشخیص دهد کاربر نوجوانی دچار افکار خودکشی است، این شرکت اعلام کرده که در شرایط بحرانی تلاش خواهد کرد با والدین او یا حتی مقامات مسئول تماس بگیرد. علاوه بر این، قابلیتهایی مانند اتصال حساب نوجوان به والدین، غیرفعالکردن تاریخچه گفتگو و ارسال هشدار در «لحظات پریشانی حاد» به این اکوسیستم افزوده خواهد شد.
آلتمن در یادداشت خود تأکید کرده که سه اصل ایمنی، آزادی و حریم خصوصی همیشه در تعارض قرار دارند، اما در مورد نوجوانان، ایمنی بر هر اصل دیگری اولویت دارد. او گفت: «با توجه به قدرت و تازگی فناوری هوش مصنوعی، افراد زیر سن قانونی نیازمند محافظت بیشتری هستند.»
آمارها نشان میدهد حدود سهچهارم نوجوانان هماکنون از ابزارهای هوش مصنوعی مانند Character AI یا محصولات متا استفاده میکنند. کارشناسان این روند را به یک بحران سلامت عمومی تشبیه کردهاند. تصمیم اخیر OpenAI میتواند گامی مهم در جهت ایجاد محیطی امنتر برای این گروه سنی باشد و شاید الگویی برای دیگر شرکتهای فعال در حوزه هوش مصنوعی شود.