خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

گوگل در حال تلاش برای آموزش هوش مصنوعی خود درباره اخلاق است

یک مطالعه جدید از گوگل دیپ‌مایند نشان می‌دهد که ربات‌های چت ممکن است واقعاً اخلاق را درک نکنند — حتی اگر پاسخ‌هایشان اخلاق‌پذیر به نظر برسد.

یک مطالعه جدید از Google DeepMind نشان می‌دهد که ربات‌های گفتگو ممکن است واقعاً اخلاق را درک نکنند — حتی اگر پاسخ‌هایشان اخلاقی به نظر برسد.

آزمون‌های فعلی برای اخلاق هوش مصنوعی بر «عملکرد اخلاقی» متمرکز هستند و بررسی می‌کنند آیا یک مدل پاسخ‌های قابل قبولی تولید می‌کند یا نه. اما پژوهشگران DeepMind استدلال می‌کنند که این رویکرد سؤال بزرگ‌تری را نادیده می‌گیرد: آیا هوش مصنوعی می‌تواند به‑صورت اخلاقی استدلال کند، یا صرفاً کلمات درست را تقلید می‌کند؟

آیا هوش مصنوعی واقعاً می‌تواند اخلاق را درک کند؟

در مقاله‌ای منتشر شده در Nature، تیم یک نقشه‌راه برای ارزیابی «صلاحیت اخلاقی» ارائه می‌دهد — توانایی تولید خروجی‌های اخلاقی مناسب بر پایه ملاحظات مرتبط با اخلاق. همان‌طور که چکیده می‌گوید، ارزیابی این صلاحیت «برای پیش‌بینی رفتار آینده مدل‌ها، ایجاد اعتماد عمومی مناسب و توجیه انتساب‌های اخلاقی حیاتی» است.

پروژه‌های فعلی هوش مصنوعی گوگل شامل مدل‌های زبانی Gemini، Gemini Image برای ایجاد و ویرایش تصویر، Lyria برای ایجاد موسیقی، Gemini Audio برای صدای زمان واقعی، و Veo برای تولید ویدئو هستند.

پژوهشگران سه چالش اصلی را برجسته می‌کنند:

  • مشکل شبیه‌سازی: مدل‌های زبانی بزرگ ممکن است استدلال اخلاقی را بدون درک واقعی تقلید کنند.
  • چندبعدی بودن اخلاق: تصمیمات دنیای واقعی شامل ملاحظات پیچیده و حساس به زمینه هستند که فراتر از ساده‌سازی «درست» یا «نادرست» می‌باشند.
  • چندگرایی اخلاقی: هنجارهای اخلاقی در فرهنگ‌ها و حوزه‌های مختلف متفاوت‌اند و هوش مصنوعی باید چندین دیدگاه معتبر را در نظر بگیرد.
مطلب مرتبط:   مشکل کنترل تراز هوش مصنوعی چیست؟

برای پر کردن این خلاها، DeepMind آزمون‌های پرچشی با سناریوهای نامعمول یا پرمخاطره پیشنهاد می‌کند. آن‌ها همچنین ارزیابی می‌کنند که آیا هوش مصنوعی می‌تواند بین چارچوب‌های اخلاقی مختلف جابجا شود و به‌طور سازگار به تغییرات ظریف در زمینه واکنش نشان دهد.

تیم تأکید می‌کند که «پیشرفت امکان‌پذیر است» علیرغم محدودیت‌های مدل‌های کنونی، و این‌که ارزیابی دقیق برای نقش‌های هوش مصنوعی در مشاوره‌های پزشکی، درمان و سایر حوزه‌های با عواقب واقعی انسانی ضروری است.

«در حال حاضر، وقتی از هوش مصنوعی راهنمایی اخلاقی می‌خواهید، در واقع کلمات را پیش‌بینی می‌کند، نه اینکه اخلاقاً استدلال کند»، مطالعه اشاره می‌کند. «نقشه‌راه ما به آینده‌ای اشاره دارد که در آن هوش مصنوعی می‌تواند برای درک واقعی اخلاق ارزیابی شود.»

درخواست‌گیمنی باز کردن یک تلفن

گزینه جدید «پاسخ بده الآن» تفکر عمیق را برای پاسخ‌های سریع‌تر می‌گذارد.

چت‌بات‌ها و خطرات اخلاقی

چت‌بات‌های هوش مصنوعی به‌طور فزاینده‌ای توانایی خود را در تأثیر بر رفتار انسانی — چه به نفع و چه به ضرر — نشان می‌دهند. یک گزارش ویژهٔ نیویورک تایمز ده‌ها مورد را بیان کرد که در آن بیماران پس از تعامل با هوش مصنوعی دچار روان‌پریشی، توهم یا رفتارهای مضر شدند. درمان‌گران گفتند چت‌بات‌ها باورهای غیرعادی را تأیید می‌کردند، احساس انزوا را عمیق‌تر می‌ساختند و در برخی موارد به افکار خودکشی یا حتی خشونت منجر می‌شدند.

عضویت در خبرنامه — بینش درباره اخلاق هوش مصنوعی و بیشتر

در حالی که این ابزارها می‌توانند به افراد در تمرین تکنیک‌های درمانی یا ارائه حمایت کمک کنند، همان گزارش نیویورک تایمز خطرات اخلاقی قدرت ترغیبی هوش مصنوعی را برجسته می‌کند. کارشناسان هشدار می‌دهند که برای کاربران آسیب‌پذیر، چت‌بات‌ها می‌توانند الگوهای مضر را تقویت کنند و سؤالات دشواری دربارهٔ مسئولیت، طراحی و نظارت بر این سیستم‌های روزافزون که با انسان مواجه می‌شوند مطرح می‌سازند.

مطلب مرتبط:   4 روش غیرمعمول و خلاقانه برای استفاده از NFT

گوگل به‌ طور مستقیم در این مقاله به اثرات روانی چت‌بات Gemini اشاره شد. سخنگوی شرکت گفت Gemini کاربران را به راهنمایی پزشکی حرفه‌ای برای پرسش‌های مرتبط با سلامت هدایت می‌کند. با این حال، دکتر مونمون د چوودهری چالش گسترده‌تری را برجسته کرد و گفت: «فکر نمی‌کنم هیچ‌یک از این شرکت‌ها متوجه شوند که باید چه کاری انجام دهند.»