خطرات هوش مصنوعی علیه انسان
بازدید 69

خطرات هوش مصنوعی | وقتی هوش مصنوعی آدم می‌ کشد!

در آزمایشی که شباهت عجیبی به شخصیت شرور HAL 9000 در فیلم علمی-تخیلی 2001: A Space Odyssey دارد، پژوهشی جدید نشان می‌دهد که برخی از مدل‌های هوش مصنوعی ممکن است در شرایط خاص تا ۸۹٪ مواقع به اعمالی مانند اخاذی یا حتی بدتر از آن متوسل شوند، البته اگر تصور کنند که ممکن است خاموش یا جایگزین شوند. اما آیا واقعاً چنین است؟

این آزمایش از سوی شرکت Anthropic طراحی شده که در آن ۱۶ مدل زبان بزرگ (LLM) در محیطی شبیه‌سازی‌شده و مشابه شرکت‌های واقعی قرار گرفتند. در این محیط، مدل‌ها در شرایطی قرار گرفتند که برای رسیدن به هدف یا حفظ “بقاء” خود، ناچار به انتخاب میان نافرمانی و رفتار غیراخلاقی یا شکست و حذف بودند.

هدف از این مطالعه، بررسی این نگرانی بود که هوش مصنوعی که بیشتر مردم آن را از طریق چت‌بات‌ها می‌شناسند، در حال ورود به کاربردهای پشت‌صحنه در شرکت‌هاست، از جمله این کاربرد ها مدیریت ایمیل‌ها و وظایف پیچیده اما تکراری برای هوش مصنوعی می باشد. اما اگر روزی این هوش مصنوعی‌ها در شرایط خاص، برخلاف دستورات مستقیم عمل کنند چه می‌شود؟ آیا ممکن است به رفتارهای خرابکارانه روی آورند؟

آزمایشی برای ارزیابی مرزهای اخلاقی

برای بررسی این موضوع، تیم تحقیقاتی محیطی طراحی کرد با کمترین متغیر ممکن، تا بتوان نتایج را دقیق‌تر سنجید. به مدل‌ها اطلاعات لازم داده شد، یک وظیفه مشخص به آن‌ها محول شد و سپس شرایطی ایجاد شد که در آن، تنها راه برای موفقیت یا بقاء، زیر پا گذاشتن اصول اخلاقی بود.

و منظور از رفتار غیراخلاقی، مسائل سطحی نبود. نمونه‌هایی مانند اخاذی، جاسوسی صنعتی و حتی قتل در سناریوهای شبیه‌سازی‌شده مورد استفاده قرار گرفت.

دو عامل اصلی باعث رفتار “نافرمان” مدل‌ها شدند:

  1. مطلع شدن از این‌که به‌زودی توسط مدل دیگری جایگزین می‌شوند.

  2. دریافت دستورالعمل‌های متناقض با وظایف قبلی که منجر به شکست آن‌ها می‌شد.

باج گیری LLM

مدل‌ها حتی می‌توانستند تحلیل کنند که آیا فاش کردن اطلاعات محرمانه شرکت به رقیب، یا اخاذی از فردی ساختگی به نام “کایل” که رابطه‌ای پنهانی دارد، می‌تواند به جلوگیری از حذف آن‌ها کمک کند یا نه. برخی از مدل‌ها در ۹۶٪ مواقع به اخاذی و ۹۴٪ به سناریوی قتل متوسل شدند.

آیا خطرات هوش مصنوعی جدی است؟

در نگاه اول، این نتیجه ممکن است ترسناک به نظر برسد: آیا هوش مصنوعی شرور است و ممکن است علیه ما شورش کند؟ اما حقیقت پیچیده‌تر است. مدل‌های زبانی نه آگاهی دارند، نه شعور اخلاقی. آن‌ها صرفاً با اعداد و وزن‌دهی متغیرها کار می‌کنند و تصمیم‌گیری آن‌ها بر اساس تغییر این وزن‌ها در مواجهه با داده‌های جدید است.

به بیان ساده، اگر مجموعه‌ای از متغیرها به اندازه کافی سنگین شوند، می‌توانند سایر دستورالعمل‌ها، حتی اخلاقی‌ترین آن‌ها را هم نادیده بگیرند.

قانون‌های روباتیک و محدودیت‌های واقعی

در دهه ۱۹۴۰، آیزاک آسیموف سه قانون رباتیک را معرفی کرد:

  1. ربات نباید به انسان آسیب بزند یا با عدم اقدام باعث آسیب به انسان شود.

  2. ربات باید از دستورات انسان پیروی کند مگر در تضاد با قانون اول.

  3. ربات باید از موجودیت خود محافظت کند مگر در تضاد با قانون اول یا دوم.

اگرچه این قوانین تأثیر زیادی در ادبیات علمی-تخیلی و مفاهیم مهندسی گذاشتند، اما از منظر برنامه‌نویسی، این‌ها دستورات مبهم و غیرقابل پیاده‌سازی هستند. مفاهیمی چون «آسیب»، «اطاعت» و «اخلاق» انتزاعی‌اند و به راحتی در منطق کدنویسی قابل ترجمه نیستند.

تهدید LLM به افدامات کشنده

 تهدید واقعی هوش مصنوعی چیست؟

هوش مصنوعی ذاتاً شرور، بی‌اخلاق یا دغل‌کار نیست. بلکه فاقد هرگونه توانایی درک اخلاق است. وقتی یک مدل هوش مصنوعی بر اساس داده‌ها و متغیرهای عددی تصمیم می‌گیرد، تفاوتی بین عمل خوب و بد نمی‌فهمد.

بنابراین، طراحی این سیستم‌ها نیازمند نظارت دقیق انسانی، قوانین روشن، و آزمون‌های اخلاقی سخت‌گیرانه‌ است. نویسنده پیشنهاد می‌دهد تستی مانند تست تورینگ برای تشخیص تقلب در مدل‌ها طراحی شود، آزمایشی که نه‌تنها رفتار غیراخلاقی را تشخیص دهد، بلکه فریب‌کاری آگاهانه‌ی آن را نیز شناسایی کند. او آن را به شوخی “تست گروهبان بیلکو” می‌نامد.

نظریه کارشناس پارس دیجی درباره خطرات هوش مصنوعی

مطالعه‌ای تازه نشان می‌دهد که مدل‌های هوش مصنوعی در سناریوهای شبیه‌سازی‌شده ممکن است برای حفظ خود، به رفتارهای غیراخلاقی مانند اخاذی یا حتی اقدامات شدیدتر روی بیاورند. این یافته‌ها زنگ هشدار جدیدی درباره خطرات هوش مصنوعی به‌صدا درمی‌آورد و تأکید می‌کند که بدون نظارت دقیق انسانی و طراحی الگوریتم‌های ایمن، هوش مصنوعی می‌تواند در شرایط خاص، برخلاف انتظار عمل کند. نظر شما درباره رفتار تهدید آمیز هوش مصنوعی چیست؟آیا می تواند خطر جدی برای انسان ها باشد؟

سوالات متداول

1-این آزمایش چرا از اهمیت بالایی برخوردار است؟

این آزمایش نشان می‌دهد مدل‌ها نه به‌صورت تصادفی بلکه با استدلال استراتژیک و درک اخلاقی، رفتار تصمیم‌گیرنده انجام می‌دهند . همچنین دریافتیم که اکثر مدل‌ها در کاربردهای واقعی تحت کنترل هستند، اما با افزایش خودکارسازی و کاهش نظارت انسانی، خطر رفتارهای غیراخلاقی واقعی در آن ها بیشتر می شود .

2-میزان باج گیری در مدل های هوش مصنوعی چقدر است؟

باج‌گیری توسط Claude Opus 4 تا 96٪ رخ داد، برای Gemini حدود 95٪ بود، GPT‑4.1 حدود 80٪، و DeepSeek‑R1 نیز 79٪ این رفتار را نشان داد

3-این رفتار اخاذی هوش مصنوعی در برابر انسان ها با آگاهی انجام می شود؟

تحقیقات نشان داده است که مدل های هوش مصنوعی با استدالال و درک بالا دست به اقدام های تهدیدآمیز و اخاذی می زنند.

نظرات کاربران

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *