خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

4 روشی که دولت ممکن است ابزارهای هوش مصنوعی را تنظیم کند

هوش مصنوعی نیاز به مقررات دارد، اما چگونه کار خواهد کرد و از کجا خواهد آمد؟

این ایده که فناوری‌های هوش مصنوعی باید تنظیم شوند، یک احساس رایج است. اکثر دولت ها، توسعه دهندگان محصولات هوش مصنوعی و حتی کاربران عادی محصولات هوش مصنوعی در این مورد اتفاق نظر دارند. متأسفانه، بهترین راه برای تنظیم این زمینه به سرعت در حال رشد، یک پازل حل نشده است.

در صورت عدم کنترل، فناوری‌های هوش مصنوعی می‌توانند شیوه زندگی ما را مختل کنند و موجودیت ما را تهدید کنند. اما چگونه دولت‌ها می‌توانند در هزارتوی چالش‌هایی که با این حوزه به سرعت در حال تحول همراه است، عبور کنند؟

1. مقررات حفظ حریم خصوصی و حفاظت از داده ها

یک قفل در یک میدان دیجیتال آبی

یکی از دغدغه های اصلی فناوری های هوش مصنوعی حفظ حریم خصوصی و امنیت داده ها است. سیستم های هوش مصنوعی ماشین های تشنه داده هستند. آنها برای کار کردن به داده، برای کارآمد بودن به داده های بیشتر و حتی برای بهبود به داده های بیشتری نیاز دارند. در حالی که این مشکلی نیست، روشی که این داده‌ها منبع می‌شوند، ماهیت آن، و نحوه پردازش و ذخیره‌سازی آن‌ها یکی از بزرگ‌ترین بحث‌ها پیرامون مقررات هوش مصنوعی است.

با در نظر گرفتن این موضوع، مسیر منطقی که باید طی کرد، وضع مقررات سختگیرانه حفظ حریم خصوصی داده‌ها است که بر جمع‌آوری، ذخیره‌سازی و پردازش داده‌ها و همچنین حقوق افراد – که از داده‌هایشان استفاده می‌شود – برای دسترسی و کنترل داده‌هایشان نظارت می‌کند. سؤالاتی که این مقررات احتمالاً به آنها پاسخ می دهد عبارتند از:

  • چه نوع داده هایی را می توان جمع آوری کرد؟
  • آیا برخی از داده های خصوصی باید در هوش مصنوعی تابو در نظر گرفته شوند؟
  • شرکت‌های هوش مصنوعی چگونه باید داده‌های شخصی حساس مانند سوابق سلامت یا اطلاعات بیومتریک را مدیریت کنند؟
  • آیا شرکت‌های هوش مصنوعی باید مکانیسم‌هایی را برای افراد پیاده‌سازی کنند تا بتوانند به راحتی اطلاعات شخصی خود را حذف یا اصلاح کنند؟
  • عواقب شرکت های هوش مصنوعی که از قوانین حفظ حریم خصوصی داده ها پیروی نمی کنند چیست؟ چگونه باید بر انطباق نظارت شود و چگونه باید از اجرای آن اطمینان حاصل شود؟
  • شاید مهم‌تر از همه، شرکت‌های هوش مصنوعی برای اطمینان از ایمنی ماهیت حساس اطلاعاتی که دارند، چه استانداردی را باید پیاده‌سازی کنند؟

این سؤالات و چند سؤال دیگر محور این بود که چرا ChatGPT به طور موقت در ایتالیا ممنوع شد. اگر به این نگرانی‌ها رسیدگی نشود، فضای هوش مصنوعی ممکن است غرب وحشی برای حفظ حریم خصوصی داده‌ها باشد و ممنوعیت ایتالیا ممکن است الگویی برای ممنوعیت‌های سایر کشورها در سراسر جهان باشد.

مطلب مرتبط:   5 بهترین ویژگی chatgpt که باید امتحان کنید

2. توسعه یک چارچوب هوش مصنوعی اخلاقی

پس زمینه کد باینری که یک زن را چهره به چهره با یک ربات نشان می دهد

شرکت‌های هوش مصنوعی اغلب به تعهد خود به دستورالعمل‌های اخلاقی در توسعه سیستم‌های هوش مصنوعی افتخار می‌کنند. حداقل روی کاغذ، همه آنها طرفداران توسعه هوش مصنوعی مسئولانه هستند. در رسانه ها، مدیران گوگل تاکید کرده اند که این شرکت چگونه ایمنی و اخلاق هوش مصنوعی را جدی می گیرد. به طور مشابه، “هوش مصنوعی ایمن و اخلاقی” یک شعار برای مدیر عامل OpenAI، سم آلتمن است. اینها کاملا قابل تحسین هستند.

اما چه کسی قوانین را تعیین می کند؟ چه کسی تصمیم می گیرد که کدام دستورالعمل های اخلاقی هوش مصنوعی به اندازه کافی خوب هستند؟ چه کسی تصمیم می گیرد که توسعه ایمن هوش مصنوعی چگونه باشد؟ در حال حاضر، به نظر می‌رسد که هر شرکت هوش مصنوعی به توسعه هوش مصنوعی مسئولانه و اخلاقی خود توجه دارد. OpenAI، Anthropic، Google، Meta، Microsoft، همه. تنها تکیه بر شرکت های هوش مصنوعی برای انجام کار درست خطرناک است.

عواقب یک فضای هوش مصنوعی کنترل نشده می تواند فاجعه بار باشد. اجازه دادن به شرکت‌ها برای تصمیم‌گیری درباره اینکه چه دستورالعمل‌های اخلاقی را اتخاذ کنند و کدام را کنار بگذارند، شبیه به راه رفتن در خواب به سمت آخرالزمان هوش مصنوعی است. راه حل؟ یک چارچوب هوش مصنوعی اخلاقی واضح که تضمین می کند:

  • سیستم‌های هوش مصنوعی بر اساس نژاد، جنسیت یا وضعیت اجتماعی-اقتصادی، افراد یا گروه‌های خاصی را به‌طور غیرمنصفانه آسیب نمی‌رسانند یا تبعیض قائل نمی‌شوند.
  • سیستم های هوش مصنوعی ایمن، ایمن و قابل اعتماد هستند و خطر پیامدهای ناخواسته یا رفتار مضر را به حداقل می رساند.
  • سیستم‌های هوش مصنوعی با در نظر گرفتن تأثیر اجتماعی گسترده‌تر فناوری‌های هوش مصنوعی ساخته شده‌اند.
  • این که انسان ها کنترل نهایی سیستم های هوش مصنوعی و تصمیم گیری آنها را به طور شفاف حفظ کنند.
  • سیستم‌های هوش مصنوعی عمداً به روش‌هایی محدود شده‌اند که برای انسان مفید است.

3. آژانس تنظیم مقررات اختصاصی

مهندس نظارت بر ورود ssh در لینوکس

به دلیل تأثیر بالقوه آن بر تمدن بشر، بحث در مورد ایمنی هوش مصنوعی معمولاً به موازات خطر یک بحران بهداشتی یا یک فاجعه هسته ای است. اجتناب از حوادث احتمالی هسته‌ای به یک آژانس اختصاصی مانند NRC ایالات متحده (کمیسیون تنظیم مقررات هسته‌ای) نیاز دارد. اجتناب از خطر بحران‌های خطرناک سلامتی مستلزم ایجاد FDA (سازمان غذا و دارو) است.

مطلب مرتبط:   RCS Messaging در اندروید چیست و چگونه از آن استفاده کنم؟

به طور مشابه، برای اطمینان از اینکه همه چیز در فضای هوش مصنوعی پیش نمی‌رود، یک آژانس اختصاصی مشابه FDA و NRC ضروری است زیرا هوش مصنوعی همچنان به هجوم تهاجمی به همه بخش‌های زندگی ما ادامه می‌دهد. متأسفانه، موضوع مقررات هوش مصنوعی در داخل کشور موضوعی پیچیده است. کار هر آژانس نظارتی اختصاصی بدون همکاری فرامرزی احتمالاً به طرز عذاب آوری سخت خواهد بود. درست همانطور که NRC (کمیسیون تنظیم مقررات هسته ای) ایالات متحده باید دست در دست آژانس بین المللی انرژی اتمی (IAEA) کار کند تا در بهترین حالت خود قرار گیرد، هر آژانس نظارتی اختصاصی هوش مصنوعی در داخل کشور نیز به یک آنالوگ بین المللی نیاز دارد.

چنین آژانسی مسئول موارد زیر خواهد بود:

  • توسعه مقررات هوش مصنوعی
  • حصول اطمینان از رعایت و اجرا
  • نظارت بر روند بررسی اخلاقی پروژه های هوش مصنوعی
  • همکاری و همکاری بین کشوری در زمینه ایمنی و اخلاق هوش مصنوعی

4. رسیدگی به کپی رایت و نگرانی های مالکیت معنوی

تصویری از دزد کپی رایت

قوانین کپی رایت و چارچوب های قانونی موجود در مواجهه با هوش مصنوعی فرو می ریزد. نحوه طراحی ابزارهای هوش مصنوعی، به ویژه ابزارهای هوش مصنوعی مولد، باعث می‌شود که آنها مانند یک دستگاه نقض حق چاپ مورد تایید عمومی به نظر برسند که نمی‌توانید کاری در مورد آن انجام دهید.

چگونه؟ خب، بسیاری از سیستم‌های هوش مصنوعی امروزی با استفاده از مواد دارای حق چاپ آموزش داده می‌شوند. می دانید، مقالات دارای حق چاپ، آهنگ های دارای حق چاپ، تصاویر دارای حق چاپ و غیره. ابزارهایی مانند ChatGPT، Bing AI و Google Bard می توانند کارهای فوق العاده ای را که انجام می دهند انجام دهند.

در حالی که این سیستم‌ها به وضوح از مالکیت معنوی افراد استفاده می‌کنند، روشی که این سیستم‌های هوش مصنوعی انجام می‌دهند با خواندن کتاب دارای حق چاپ توسط انسان، گوش دادن به آهنگ‌های دارای حق چاپ یا تماشای تصاویر دارای حق چاپ تفاوتی ندارد.

شما می توانید یک کتاب دارای حق چاپ را بخوانید، حقایق جدیدی را از آن یاد بگیرید و از آن حقایق به عنوان پایه ای برای کتاب خود استفاده کنید. همچنین می توانید برای الهام گرفتن از آهنگ های دارای حق چاپ گوش دهید تا موسیقی خود را بسازید. در هر دو مورد، شما از مطالب دارای حق چاپ استفاده کرده اید، اما لزوماً به این معنا نیست که محصول مشتق شده حق چاپ نسخه اصلی را نقض می کند.

مطلب مرتبط:   بهترین لوازم جانبی و دستگاه های USB-C

در حالی که این توضیحی منطقی برای توضیح آشفتگی هایی است که هوش مصنوعی در مورد قوانین کپی رایت ایجاد می کند، اما همچنان به صاحبان حق چاپ و مالکیت معنوی آسیب می رساند. با توجه به این موضوع، مقرراتی لازم است:

  • مسئولیت و مسئولیت همه طرف های درگیر در چرخه حیات یک سیستم هوش مصنوعی را به وضوح تعریف کنید. این شامل روشن کردن نقش هر طرف، از توسعه‌دهندگان هوش مصنوعی گرفته تا کاربران نهایی، می‌شود تا اطمینان حاصل شود که طرف‌های مسئول در قبال هرگونه نقض حق نسخه‌برداری یا نقض مالکیت معنوی انجام شده توسط سیستم‌های هوش مصنوعی پاسخگو هستند.
  • چارچوب‌های حق نسخه‌برداری موجود را تقویت کنید و شاید قوانین کپی رایت ویژه هوش مصنوعی را معرفی کنید.
  • برای اطمینان از نوآوری در فضای هوش مصنوعی و در عین حال محافظت از حقوق سازندگان اصلی، مقررات هوش مصنوعی باید مفاهیم استفاده منصفانه و کار متحول کننده را در زمینه محتوای تولید شده توسط هوش مصنوعی بازتعریف کند. تعاریف و دستورالعمل‌های واضح‌تری مورد نیاز است تا اطمینان حاصل شود که فضای هوش مصنوعی می‌تواند با رعایت مرزهای حق چاپ به بهبود ادامه دهد. ایجاد تعادل بین نوآوری و حفظ حقوق تولیدکنندگان محتوا ضروری است.
  • مسیرهای روشن برای همکاری با دارندگان حق. اگر قرار است سیستم‌های هوش مصنوعی به هر حال از مالکیت معنوی افراد استفاده کنند، باید راه‌ها یا چارچوب‌های روشنی برای توسعه‌دهندگان و صاحبان حقوق هوش مصنوعی وجود داشته باشد تا بتوانند همکاری کنند، به‌ویژه از نظر غرامت‌های مالی، در صورتی که کار مشتق شده از چنین دارایی‌های معنوی تجاری شود.

مقررات هوش مصنوعی یک راه حل به شدت مورد نیاز است

در حالی که هوش مصنوعی به عنوان یک راه حل امیدوارکننده برای بسیاری از مشکلات اجتماعی ما ظاهر شده است، خود هوش مصنوعی به سرعت در حال تبدیل شدن به یک مشکل است که نیاز به یک رفع فوری دارد. زمان آن رسیده است که یک گام به عقب بردارید، فکر کنید و اصلاحات لازم را برای اطمینان از تأثیر مثبت هوش مصنوعی بر جامعه انجام دهید. ما شدیداً به یک کالیبراسیون مجدد فوری در رویکردمان برای ساخت و استفاده از سیستم‌های هوش مصنوعی نیاز داریم.