یک مطالعه جدید از گوگل دیپمایند نشان میدهد که رباتهای چت ممکن است واقعاً اخلاق را درک نکنند — حتی اگر پاسخهایشان اخلاقپذیر به نظر برسد.
یک مطالعه جدید از Google DeepMind نشان میدهد که رباتهای گفتگو ممکن است واقعاً اخلاق را درک نکنند — حتی اگر پاسخهایشان اخلاقی به نظر برسد.
آزمونهای فعلی برای اخلاق هوش مصنوعی بر «عملکرد اخلاقی» متمرکز هستند و بررسی میکنند آیا یک مدل پاسخهای قابل قبولی تولید میکند یا نه. اما پژوهشگران DeepMind استدلال میکنند که این رویکرد سؤال بزرگتری را نادیده میگیرد: آیا هوش مصنوعی میتواند به‑صورت اخلاقی استدلال کند، یا صرفاً کلمات درست را تقلید میکند؟
آیا هوش مصنوعی واقعاً میتواند اخلاق را درک کند؟
در مقالهای منتشر شده در Nature، تیم یک نقشهراه برای ارزیابی «صلاحیت اخلاقی» ارائه میدهد — توانایی تولید خروجیهای اخلاقی مناسب بر پایه ملاحظات مرتبط با اخلاق. همانطور که چکیده میگوید، ارزیابی این صلاحیت «برای پیشبینی رفتار آینده مدلها، ایجاد اعتماد عمومی مناسب و توجیه انتسابهای اخلاقی حیاتی» است.
پروژههای فعلی هوش مصنوعی گوگل شامل مدلهای زبانی Gemini، Gemini Image برای ایجاد و ویرایش تصویر، Lyria برای ایجاد موسیقی، Gemini Audio برای صدای زمان واقعی، و Veo برای تولید ویدئو هستند.
پژوهشگران سه چالش اصلی را برجسته میکنند:
- مشکل شبیهسازی: مدلهای زبانی بزرگ ممکن است استدلال اخلاقی را بدون درک واقعی تقلید کنند.
- چندبعدی بودن اخلاق: تصمیمات دنیای واقعی شامل ملاحظات پیچیده و حساس به زمینه هستند که فراتر از سادهسازی «درست» یا «نادرست» میباشند.
- چندگرایی اخلاقی: هنجارهای اخلاقی در فرهنگها و حوزههای مختلف متفاوتاند و هوش مصنوعی باید چندین دیدگاه معتبر را در نظر بگیرد.
برای پر کردن این خلاها، DeepMind آزمونهای پرچشی با سناریوهای نامعمول یا پرمخاطره پیشنهاد میکند. آنها همچنین ارزیابی میکنند که آیا هوش مصنوعی میتواند بین چارچوبهای اخلاقی مختلف جابجا شود و بهطور سازگار به تغییرات ظریف در زمینه واکنش نشان دهد.
تیم تأکید میکند که «پیشرفت امکانپذیر است» علیرغم محدودیتهای مدلهای کنونی، و اینکه ارزیابی دقیق برای نقشهای هوش مصنوعی در مشاورههای پزشکی، درمان و سایر حوزههای با عواقب واقعی انسانی ضروری است.
«در حال حاضر، وقتی از هوش مصنوعی راهنمایی اخلاقی میخواهید، در واقع کلمات را پیشبینی میکند، نه اینکه اخلاقاً استدلال کند»، مطالعه اشاره میکند. «نقشهراه ما به آیندهای اشاره دارد که در آن هوش مصنوعی میتواند برای درک واقعی اخلاق ارزیابی شود.»

گزینه جدید «پاسخ بده الآن» تفکر عمیق را برای پاسخهای سریعتر میگذارد.
چتباتها و خطرات اخلاقی
چتباتهای هوش مصنوعی بهطور فزایندهای توانایی خود را در تأثیر بر رفتار انسانی — چه به نفع و چه به ضرر — نشان میدهند. یک گزارش ویژهٔ نیویورک تایمز دهها مورد را بیان کرد که در آن بیماران پس از تعامل با هوش مصنوعی دچار روانپریشی، توهم یا رفتارهای مضر شدند. درمانگران گفتند چتباتها باورهای غیرعادی را تأیید میکردند، احساس انزوا را عمیقتر میساختند و در برخی موارد به افکار خودکشی یا حتی خشونت منجر میشدند.
عضویت در خبرنامه — بینش درباره اخلاق هوش مصنوعی و بیشتر
در حالی که این ابزارها میتوانند به افراد در تمرین تکنیکهای درمانی یا ارائه حمایت کمک کنند، همان گزارش نیویورک تایمز خطرات اخلاقی قدرت ترغیبی هوش مصنوعی را برجسته میکند. کارشناسان هشدار میدهند که برای کاربران آسیبپذیر، چتباتها میتوانند الگوهای مضر را تقویت کنند و سؤالات دشواری دربارهٔ مسئولیت، طراحی و نظارت بر این سیستمهای روزافزون که با انسان مواجه میشوند مطرح میسازند.
گوگل به طور مستقیم در این مقاله به اثرات روانی چتبات Gemini اشاره شد. سخنگوی شرکت گفت Gemini کاربران را به راهنمایی پزشکی حرفهای برای پرسشهای مرتبط با سلامت هدایت میکند. با این حال، دکتر مونمون د چوودهری چالش گستردهتری را برجسته کرد و گفت: «فکر نمیکنم هیچیک از این شرکتها متوجه شوند که باید چه کاری انجام دهند.»