تصویری مفهومی از همکاری انسان و عوامل هوش مصنوعی (Human-in-the-loop) در محیط کار مهندسی.
بازدید 14

استفاده امن از عوامل هوش مصنوعی در سازمان‌ها

امروزه مدیران سازمان‌های بزرگ به دنبال موج جدیدی از توسعه هستند که بازگشت سرمایه بالایی را تضمین کند و عوامل هوش مصنوعی دقیقاً همان چیزی هستند که توجه همه را جلب کرده‌اند . با این حال، استفاده از این فناوری پیشرفته بدون در نظر گرفتن سپرهای حفاظتی (Guardrails) می‌تواند به یک چالش بزرگ برای تیم‌های پایداری سیستم (SRE) تبدیل شود . بررسی‌ها نشان می‌دهد که بیش از نیمی از سازمان‌ها در حال حاضر از این ابزارها استفاده می‌کنند، اما جالب اینجاست که ۴۰ درصد از رهبران فناوری از اینکه از همان ابتدا چارچوب‌های حاکمیتی قوی‌تری برای رعایت مسائل اخلاقی و قانونی ایجاد نکرده‌اند، ابراز پشیمانی می‌کنند.

چرا پذیرش عجولانه هوش مصنوعی می‌تواند خطرناک باشد؟

ریسک‌های پنهان در مسیر خودکارسازی فعالیت‌ها برای اینکه بتوانیم از هوش مصنوعی به شکلی امن استفاده کنیم، ابتدا باید نقاط ضعف و خطرات آن را بشناسیم. یکی از اولین چالش‌ها، پدیده «هوش مصنوعی سایه» است؛ یعنی زمانی که کارکنان بدون اجازه رسمی و دور از چشم بخش فناوری اطلاعات، از ابزارهای هوش مصنوعی غیرمجاز استفاده می‌کنند . اگرچه این رفتار با هدف افزایش سرعت انجام کار صورت می‌گیرد، اما ماهیت خودکار این عوامل باعث می‌شود که ابزارهای تایید نشده به راحتی خارج از نظارت IT فعالیت کنند و امنیت کل سیستم را به خطر بیندازند .
چالش دوم به مسئله مالکیت و پاسخگویی مربوط می‌شود. قدرت اصلی عوامل هوش مصنوعی در استقلال آن‌هاست، اما اگر این ابزارها رفتاری غیرمنتظره از خود نشان دهند، تیم‌ها باید بدانند دقیقاً چه کسی مسئول رسیدگی به عواقب آن است . در کنار این موضوع، نبود شفافیت در نحوه تصمیم‌گیری هوش مصنوعی نیز یک ریسک جدی است. از آنجایی که این عوامل هدف‌گرا هستند، گاهی مسیر رسیدن آن‌ها به هدف مبهم می‌ماند و مهندسان باید بتوانند منطق پشت هر اقدام را درک کنند تا در صورت بروز مشکل، امکان بازگرداندن تغییرات وجود داشته باشد .

نظارت انسانی

اصلی‌ترین رکن هوش مصنوعی مسئولانه با وجود سرعت بالای پیشرفت هوش مصنوعی، هنوز هم حضور انسان در چرخه تصمیم‌گیری (Human-in-the-loop) یک ضرورت غیرقابل انکار است . به ویژه در موارد حساس تجاری که هر تصمیمی مستقیماً بر سیستم‌های حیاتی اثر می‌گذارد، باید یک ناظر انسانی به صورت پیش‌فرض بر فرآیندها نظارت داشته باشد . سازمان‌ها باید برای هر عامل هوش مصنوعی یک مالک انسانی مشخص تعیین کنند که مسئولیت مستقیم عملکرد آن را بر عهده بگیرد و قدرت لغو یا اصلاح رفتارهای نادرست هوش مصنوعی را داشته باشد . بهتر است کار با این ابزارها را به صورت محافظه‌کارانه آغاز کرد و به مرور زمان و با کسب اطمینان بیشتر، سطح اختیارات آن‌ها را افزایش داد.
تقویت امنیت و استانداردهای حفاظتی ورود ابزارهای جدید هرگز نباید راه را برای رخنه‌های امنیتی باز کند. سازمان‌ها باید از پلتفرم‌هایی استفاده کنند که استانداردهای امنیتی بالایی نظیر SOC2 یا FedRAMP را رعایت کرده باشند . نکته حیاتی دیگر این است که نباید به عوامل هوش مصنوعی اجازه دسترسی آزادانه به تمامی بخش‌های سیستم داده شود؛ بلکه دسترسی‌های آن‌ها باید دقیقاً منطبق بر نقش تعریف‌شده و در سطح دسترسی مالک انسانی آن‌ها باشد . همچنین ثبت دقیق تمامی فعالیت‌ها و اقدامات انجام شده توسط هوش مصنوعی (Logging) به مهندسان کمک می‌کند تا در صورت بروز حادثه، به سرعت ریشه مشکل را پیدا کنند .
شفافیت و پایان دادن به جعبه سیاه هوش مصنوعی استفاده از هوش مصنوعی در یک سازمان هرگز نباید شبیه به یک جعبه سیاه باشد که هیچ‌کس از محتوای آن خبر ندارد. منطق پشت هر تصمیم و اقدامی که توسط هوش مصنوعی صورت می‌گیرد، باید برای مهندسان کاملاً روشن و قابل ردیابی باشد. ثبت ورودی‌ها و خروجی‌های هر اقدام نه تنها به درک بهتر عملکرد سیستم کمک می‌کند، بلکه در مواقعی که فرآیندها طبق برنامه پیش نمی‌روند، ارزش حیاتی در عیب‌یابی و اصلاح مسیر خواهد داشت . در نهایت، موفقیت عوامل هوش مصنوعی در گرو اولویت‌بندی امنیت و حکمرانی درست است تا سازمان‌ها بتوانند بدون مواجهه با ریسک‌های غیرقابل جبران، از پتانسیل عظیم این فناوری برای بهبود فرآیندهای خود بهره‌مند شوند .

سوالات متداول

۱. هوش مصنوعی سایه چیست و چرا خطرناک است؟

هوش مصنوعی سایه به استفاده کارکنان از ابزارهای هوش مصنوعی بدون تایید بخش IT گفته می‌شود که می‌تواند به دلیل خودمختاری این ابزارها، ریسک‌های امنیتی شدیدی را به سازمان تحمیل کند .

 ۲. چگونه می‌توان از پاسخگویی در مورد اقدامات هوش مصنوعی مطمئن شد؟

سازمان‌ها باید برای هر عامل هوش مصنوعی یک مالک انسانی مشخص تعیین کنند و مسیرهای تایید برای اقدامات پرخطر ایجاد نمایند تا مسئولیت هر فعالیت کاملاً شفاف باشد .

۳. تفاوت اتوماسیون سنتی با عوامل هوش مصنوعی در چیست؟

اتوماسیون سنتی برای کارهای تکراری با داده‌های ساختاریافته عالی است، اما عوامل هوش مصنوعی می‌توانند وظایف بسیار پیچیده‌تری را مدیریت کرده و خود را با اطلاعات جدید وفق دهند.

 ۴. چرا شفافیت (Explainability) در هوش مصنوعی مهم است؟

برای اینکه مهندسان بتوانند در صورت بروز مشکل، اقدامات هوش مصنوعی را ردیابی یا به عقب برگردانند، باید منطق و مراحل تصمیم‌گیری هوش مصنوعی کاملاً شفاف و مستند باشد.

نظرات کاربران

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *