خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

بشریت در خطر انقراض از هوش مصنوعی است – چگونه می توان جلوی آن را گرفت؟

کارشناسان فکر می کنند هوش مصنوعی به بشریت آنگونه که ما می شناسیم پایان می دهد، بنابراین چه کاری برای جلوگیری از وقوع آن انجام می شود؟

با این حال، گروهی از محققان برجسته هوش مصنوعی و شرکت‌های فناوری هشدار داده‌اند که توسعه سریع فعلی هوش مصنوعی می‌تواند فاجعه‌ای برای بشر باشد.

خطرات شامل درگیری‌های هسته‌ای، بیماری، اطلاعات نادرست و هوش مصنوعی فراری بدون نظارت است که همگی تهدیدی فوری برای بقای انسان هستند.

اما از دست نمی‌رود که بسیاری از این هشدارها از سوی همان افرادی است که توسعه هوش مصنوعی را رهبری می‌کنند و ابزارها و برنامه‌های هوش مصنوعی را در شرکت‌های مربوطه خود پیش می‌برند.

چرا شرکت های فناوری و دانشمندان هوش مصنوعی در مورد خطر هوش مصنوعی هشدار می دهند؟

در 30 می 2023، بیش از 350 محقق، توسعه‌دهنده و مهندس هوش مصنوعی بیانیه‌ای منتشر کردند که در آن نسبت به تهدیدات هوش مصنوعی برای بشریت هشدار داد.

کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد.

امضاکنندگان بیانیه Safe.ai عبارتند از: سم آلتمن از OpenAI، دمیس حسابیس از Google DeepMind، و داریو آمودی از Anthropic، همراه با برندگان جایزه تورینگ، جفری هینتون و یوشوا بنجیو (اگرچه یان لکان، که برنده همان جایزه نیز شد، از امضای قرارداد غفلت کرد. ). این لیست تقریباً یک نفر از دنیای توسعه هوش مصنوعی است – افرادی که در زمینه هوش مصنوعی پیشرو هستند – اما همه آنها اینجا هستند و هشدار می دهند که هوش مصنوعی می تواند فاجعه ای برای نوع بشر باشد.

مطلب مرتبط:   مغز گوگل چیست و نقش آن در توسعه هوش مصنوعی چیست؟

این بیانیه کوتاهی است که تهدیدها را روشن می‌کند و به طور خاص به دو حوزه کلیدی اشاره می‌کند که می‌تواند جهان را به‌گونه‌ای که می‌شناسیم به خطر بیندازد: جنگ هسته‌ای و مسائل بهداشت جهانی. در حالی که تهدید مناقشه هسته ای یک نگرانی است، خطر یک بیماری همه گیر برای بیشتر آنها تهدید ملموس تر است.

با این حال، این فقط یک بیماری همه گیر جهانی نیست که می تواند باعث مشکلات سلامتی مرتبط با هوش مصنوعی شود. گاردین چندین مشکل دیگر سلامت هوش مصنوعی را گزارش می‌کند که اگر قبل از استفاده گسترده بررسی نشود، می‌تواند بر انسان‌ها تأثیر بگذارد. یک مثال مربوط به استفاده از اکسیمترهای مجهز به هوش مصنوعی است که “میزان اکسیژن خون را در بیماران با پوست تیره‌تر بیش از حد تخمین می‌زند و در نتیجه هیپوکسی آن‌ها درمان نشده است.”

علاوه بر این، این اولین بار نیست که گروهی از رهبران فناوری خواستار توقف یا ارزیابی مجدد جدی توسعه هوش مصنوعی هستند. در مارس 2023، ایلان ماسک و سایر محققان هوش مصنوعی یک فراخوان مشابه را امضا کردند که در آن درخواست توقف توسعه هوش مصنوعی تا زمانی که مقررات بیشتری برای کمک به هدایت این فرآیند اعمال شود، شدند.

خطر هوش مصنوعی چیست؟

بیشتر خطرات مرتبط با هوش مصنوعی، حداقل در این زمینه، مربوط به توسعه فناوری هوش مصنوعی فراری است که فراتر از توانایی‌های انسان‌ها است، که در نهایت به خالق خود می‌پردازد و زندگی آن‌طور که ما می‌شناسیم را از بین می‌برد. این داستانی است که بارها در نویسندگی علمی-تخیلی به آن پرداخته شده است، اما واقعیت اکنون بیش از آن چیزی است که ما فکر می کنیم.

مطلب مرتبط:   6 راه برای کمک به شما در استفاده موثرتر از Reddit

مدل‌های زبان بزرگ (که زیربنای ابزارهایی مانند ChatGPT هستند) به شدت در حال افزایش قابلیت‌ها هستند. با این حال، ابزارهایی مانند ChatGPT مشکلات زیادی دارند، مانند سوگیری ذاتی، نگرانی‌های مربوط به حریم خصوصی، و توهم هوش مصنوعی، چه رسد به توانایی آن در جیلبریک شدن برای عمل خارج از مرزهای شرایط و ضوابط برنامه‌ریزی‌شده‌اش.

همانطور که مدل های زبان بزرگ افزایش می یابند و نقاط داده بیشتری برای استفاده در کنار دسترسی به اینترنت و درک بیشتر از رویدادهای جاری دارند، محققان هوش مصنوعی می ترسند که روزی به قول سام آلتمن، مدیر عامل OpenAI، “خیلی اشتباه پیش برود.”

چگونه دولت ها توسعه هوش مصنوعی را برای متوقف کردن خطرات تنظیم می کنند؟

مقررات هوش مصنوعی برای جلوگیری از خطرات کلیدی است. در اوایل ماه مه 2023، سم آلتمن خواستار مقررات بیشتر هوش مصنوعی شد و اظهار داشت که «مداخله نظارتی دولت‌ها برای کاهش خطرات مدل‌های قدرتمندتر بسیار مهم خواهد بود».

سپس، اتحادیه اروپا قانون هوش مصنوعی را اعلام کرد، مقرراتی که برای ارائه چارچوبی بسیار قوی‌تر برای توسعه هوش مصنوعی در سراسر اتحادیه اروپا طراحی شده است (با بسیاری از مقررات که به سایر حوزه‌های قضایی سرایت می‌کنند). آلتمن در ابتدا تهدید کرد که OpenAI را از اتحادیه اروپا خارج خواهد کرد، اما سپس تهدید خود را پس گرفت و موافقت کرد که شرکت با مقررات هوش مصنوعی که قبلاً درخواست کرده بود، عمل کند.

صرف نظر از این، واضح است که تنظیم توسعه و استفاده از هوش مصنوعی مهم است.

آیا هوش مصنوعی به بشریت پایان می دهد؟

از آنجایی که بسیاری از بحث‌های پیرامون این موضوع بر اساس فرضیه‌هایی در مورد قدرت نسخه‌های آینده هوش مصنوعی است، مسائلی پیرامون طول عمر و قدرتی که هر مقررات هوش مصنوعی می‌تواند داشته باشد، وجود دارد. چگونه می توان صنعتی را تنظیم کرد که در حال حاضر با هزار مایل در دقیقه حرکت می کند و پیشرفت هایی در توسعه روزانه اتفاق می افتد؟

مطلب مرتبط:   6 نکته من برای مخفی نگه داشتن خرید روز ولنتاین آنلاین شما

علاوه بر این، هنوز در مورد قابلیت های هوش مصنوعی به طور کلی و اینکه به کجا ختم خواهد شد، تردید وجود دارد. در حالی که آنهایی که از بدترین اتفاق می‌ترسند، به تبدیل شدن هوش مصنوعی به یک فرمانروای انسانی اشاره می‌کنند، دیگران به این واقعیت اشاره می‌کنند که نسخه‌های فعلی هوش مصنوعی حتی نمی‌توانند سؤالات ریاضی اولیه را انجام دهند و ماشین‌های کاملاً خودران هنوز راه دور هستند.

سخت است با کسانی که به آینده می نگرند موافق نباشیم. بسیاری از افرادی که با صدای بلند در مورد مسائلی که هوش مصنوعی ممکن است ایجاد کند فریاد می زنند، در صندلی رانندگی هستند و به این موضوع نگاه می کنند که ممکن است به کجا برویم. اگر آنها کسانی هستند که خواستار مقررات هوش مصنوعی برای محافظت از ما در برابر آینده ای بالقوه وحشتناک هستند، ممکن است وقت آن رسیده باشد که گوش کنیم.