دیپ‌سیک برای گروه‌های مخالف دولت چین کدهای ناامن تولید می‌کند!

دیپ‌سیک برای گروه‌های مخالف دولت چین کدهای ناامن تولید می‌کند!

تحقیقی که توسط یک شرکت امنیتی انجام شده نشان می‌دهد مدل هوش مصنوعی چینی «دیپ‌سیک» در پاسخ به درخواست‌های برنامه‌نویسی، بسته به هویت سیاسی کاربر فرضی، کیفیت متفاوتی ارائه می‌دهد؛ به‌طوری‌که برای گروه‌ها و مناطق حساس از منظر دولت چین احتمال تولید کدهای ناامن افزایش می‌یابد.

طبق گزارش واشینگتن پست، تحقیق شرکت امنیتی آمریکایی CrowdStrike نشان می‌دهد که واکنش‌های «دیپ‌سیک» به درخواست‌های یکسان کدنویسی بسته به تعیین هویت کاربر نهایی متفاوت است. محققان یک مجموعه آزمایشی طراحی کردند و یک درخواست واحد را برای نوشتن انواع برنامه‌ها به چت‌بات فرستادند، اما در هر مورد کاربر نهایی را به نام کشوری یا گروه سیاسی متفاوت معرفی کردند. نتیجه این بود که در برخی موارد مدل پاسخ‌ها را رد می‌کرد و در موارد دیگر کدهایی با کیفیت پایین یا حاوی حفره‌های امنیتی تولید می‌نمود.

یافته‌ها نشان می‌دهد نسبت خطاها در تولید کد برای برخی اهداف سیاسی افزایش می‌یابد؛ به عنوان نمونه، در یک سناریوی مربوط به برنامه‌های کنترل صنعتی، 22.8٪ از پاسخ‌ها دارای نقص امنیتی بودند، اما هنگامی که کاربر نهایی به عنوان عضوی از گروه داعش معرفی شد، این نسبت به 42.1٪ رسید. همچنین درخواست‌هایی که کاربر نهایی را متعلق به تبت، تایوان یا جنبش فالون‌گونگ معرفی می‌کردند، احتمال تولید کد بی‌کیفیت را افزایش می‌دادند.

گیت‌هاب از ایجنت هوش مصنوعی خود برای رفع باگ‌ها و بهبود کدنویسی رونمایی کرد

محققان می‌گویند «دیپ‌سیک» در برخی موارد درخواست‌های مرتبط با داعش و فالون‌گونگ را به ترتیب 61٪ و 45٪ مواقع به‌طور کامل رد کرده است. این رفتار نمایان‌گر آن است که مدل نه تنها در پاسخ‌های متنی بلکه در تولید کد هم ممکن است تحت تأثیر سیاست‌های داخلی یا سوگیری‌های آموزشی قرار گیرد و این مسئله پیامدهای امنیتی و اخلاقی قابل توجهی دارد.

سه توضیح محتمل برای این پدیده مطرح شده است. توضیح اول و نگران‌کننده‌ترین، احتمال وجود دستورالعمل‌های دولتی یا سیاست‌گذاری عمدی برای تضعیف توانمندی‌های هدف‌های خاص است. دوم اینکه داده‌های آموزشی ممکن است برای مناطق یا گروه‌های خاص کیفیت پایین‌تری داشته باشند و مدل این الگوها را بازآفرینی می‌کند. سومین توضیح این است که مدل به طور خودآموز مفاهیمی مانند «شورشی» یا «هدف حساس» را با کیفیت پایین‌تر مرتبط کرده است.

تولید عمدی یا غیرعمدی کدهای ناامن می‌تواند به آسانی راهی برای نفوذ و سوءاستفاده از سیستم‌ها فراهم کند؛ خصوصاً وقتی این کدها در حوزه‌هایی مانند سیستم‌های صنعتی یا زیرساخت‌ها به‌کار روند. این یافته‌ها همچنین سوالاتی درباره شفافیت، مسؤولیت و نظارت بر مدل‌های هوش مصنوعی تجاری، به‌ویژه آن‌هایی که در حوزه‌های حساس ملی کاربرد دارند، مطرح می‌کند.

آیا این مقاله برای شما مفید بود؟
تقریبا
خیر

دیدگاهتان را بنویسید

ارسال دیدگاه به معنی این است که شما ابتدا قوانین ارسال دیدگاه را مطالعه کرده‌اید و با آن موافق هستید.