کارشناسان فکر می کنند هوش مصنوعی به بشریت آنگونه که ما می شناسیم پایان می دهد، بنابراین چه کاری برای جلوگیری از وقوع آن انجام می شود؟
با این حال، گروهی از محققان برجسته هوش مصنوعی و شرکتهای فناوری هشدار دادهاند که توسعه سریع فعلی هوش مصنوعی میتواند فاجعهای برای بشر باشد.
خطرات شامل درگیریهای هستهای، بیماری، اطلاعات نادرست و هوش مصنوعی فراری بدون نظارت است که همگی تهدیدی فوری برای بقای انسان هستند.
اما از دست نمیرود که بسیاری از این هشدارها از سوی همان افرادی است که توسعه هوش مصنوعی را رهبری میکنند و ابزارها و برنامههای هوش مصنوعی را در شرکتهای مربوطه خود پیش میبرند.
چرا شرکت های فناوری و دانشمندان هوش مصنوعی در مورد خطر هوش مصنوعی هشدار می دهند؟
در 30 می 2023، بیش از 350 محقق، توسعهدهنده و مهندس هوش مصنوعی بیانیهای منتشر کردند که در آن نسبت به تهدیدات هوش مصنوعی برای بشریت هشدار داد.
کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد.
امضاکنندگان بیانیه Safe.ai عبارتند از: سم آلتمن از OpenAI، دمیس حسابیس از Google DeepMind، و داریو آمودی از Anthropic، همراه با برندگان جایزه تورینگ، جفری هینتون و یوشوا بنجیو (اگرچه یان لکان، که برنده همان جایزه نیز شد، از امضای قرارداد غفلت کرد. ). این لیست تقریباً یک نفر از دنیای توسعه هوش مصنوعی است – افرادی که در زمینه هوش مصنوعی پیشرو هستند – اما همه آنها اینجا هستند و هشدار می دهند که هوش مصنوعی می تواند فاجعه ای برای نوع بشر باشد.
این بیانیه کوتاهی است که تهدیدها را روشن میکند و به طور خاص به دو حوزه کلیدی اشاره میکند که میتواند جهان را بهگونهای که میشناسیم به خطر بیندازد: جنگ هستهای و مسائل بهداشت جهانی. در حالی که تهدید مناقشه هسته ای یک نگرانی است، خطر یک بیماری همه گیر برای بیشتر آنها تهدید ملموس تر است.
با این حال، این فقط یک بیماری همه گیر جهانی نیست که می تواند باعث مشکلات سلامتی مرتبط با هوش مصنوعی شود. گاردین چندین مشکل دیگر سلامت هوش مصنوعی را گزارش میکند که اگر قبل از استفاده گسترده بررسی نشود، میتواند بر انسانها تأثیر بگذارد. یک مثال مربوط به استفاده از اکسیمترهای مجهز به هوش مصنوعی است که “میزان اکسیژن خون را در بیماران با پوست تیرهتر بیش از حد تخمین میزند و در نتیجه هیپوکسی آنها درمان نشده است.”
علاوه بر این، این اولین بار نیست که گروهی از رهبران فناوری خواستار توقف یا ارزیابی مجدد جدی توسعه هوش مصنوعی هستند. در مارس 2023، ایلان ماسک و سایر محققان هوش مصنوعی یک فراخوان مشابه را امضا کردند که در آن درخواست توقف توسعه هوش مصنوعی تا زمانی که مقررات بیشتری برای کمک به هدایت این فرآیند اعمال شود، شدند.
خطر هوش مصنوعی چیست؟
بیشتر خطرات مرتبط با هوش مصنوعی، حداقل در این زمینه، مربوط به توسعه فناوری هوش مصنوعی فراری است که فراتر از تواناییهای انسانها است، که در نهایت به خالق خود میپردازد و زندگی آنطور که ما میشناسیم را از بین میبرد. این داستانی است که بارها در نویسندگی علمی-تخیلی به آن پرداخته شده است، اما واقعیت اکنون بیش از آن چیزی است که ما فکر می کنیم.
مدلهای زبان بزرگ (که زیربنای ابزارهایی مانند ChatGPT هستند) به شدت در حال افزایش قابلیتها هستند. با این حال، ابزارهایی مانند ChatGPT مشکلات زیادی دارند، مانند سوگیری ذاتی، نگرانیهای مربوط به حریم خصوصی، و توهم هوش مصنوعی، چه رسد به توانایی آن در جیلبریک شدن برای عمل خارج از مرزهای شرایط و ضوابط برنامهریزیشدهاش.
همانطور که مدل های زبان بزرگ افزایش می یابند و نقاط داده بیشتری برای استفاده در کنار دسترسی به اینترنت و درک بیشتر از رویدادهای جاری دارند، محققان هوش مصنوعی می ترسند که روزی به قول سام آلتمن، مدیر عامل OpenAI، “خیلی اشتباه پیش برود.”
چگونه دولت ها توسعه هوش مصنوعی را برای متوقف کردن خطرات تنظیم می کنند؟
مقررات هوش مصنوعی برای جلوگیری از خطرات کلیدی است. در اوایل ماه مه 2023، سم آلتمن خواستار مقررات بیشتر هوش مصنوعی شد و اظهار داشت که «مداخله نظارتی دولتها برای کاهش خطرات مدلهای قدرتمندتر بسیار مهم خواهد بود».
سپس، اتحادیه اروپا قانون هوش مصنوعی را اعلام کرد، مقرراتی که برای ارائه چارچوبی بسیار قویتر برای توسعه هوش مصنوعی در سراسر اتحادیه اروپا طراحی شده است (با بسیاری از مقررات که به سایر حوزههای قضایی سرایت میکنند). آلتمن در ابتدا تهدید کرد که OpenAI را از اتحادیه اروپا خارج خواهد کرد، اما سپس تهدید خود را پس گرفت و موافقت کرد که شرکت با مقررات هوش مصنوعی که قبلاً درخواست کرده بود، عمل کند.
صرف نظر از این، واضح است که تنظیم توسعه و استفاده از هوش مصنوعی مهم است.
آیا هوش مصنوعی به بشریت پایان می دهد؟
از آنجایی که بسیاری از بحثهای پیرامون این موضوع بر اساس فرضیههایی در مورد قدرت نسخههای آینده هوش مصنوعی است، مسائلی پیرامون طول عمر و قدرتی که هر مقررات هوش مصنوعی میتواند داشته باشد، وجود دارد. چگونه می توان صنعتی را تنظیم کرد که در حال حاضر با هزار مایل در دقیقه حرکت می کند و پیشرفت هایی در توسعه روزانه اتفاق می افتد؟
علاوه بر این، هنوز در مورد قابلیت های هوش مصنوعی به طور کلی و اینکه به کجا ختم خواهد شد، تردید وجود دارد. در حالی که آنهایی که از بدترین اتفاق میترسند، به تبدیل شدن هوش مصنوعی به یک فرمانروای انسانی اشاره میکنند، دیگران به این واقعیت اشاره میکنند که نسخههای فعلی هوش مصنوعی حتی نمیتوانند سؤالات ریاضی اولیه را انجام دهند و ماشینهای کاملاً خودران هنوز راه دور هستند.
سخت است با کسانی که به آینده می نگرند موافق نباشیم. بسیاری از افرادی که با صدای بلند در مورد مسائلی که هوش مصنوعی ممکن است ایجاد کند فریاد می زنند، در صندلی رانندگی هستند و به این موضوع نگاه می کنند که ممکن است به کجا برویم. اگر آنها کسانی هستند که خواستار مقررات هوش مصنوعی برای محافظت از ما در برابر آینده ای بالقوه وحشتناک هستند، ممکن است وقت آن رسیده باشد که گوش کنیم.