هوش مصنوعی نیاز به مقررات دارد، اما چگونه کار خواهد کرد و از کجا خواهد آمد؟
این ایده که فناوریهای هوش مصنوعی باید تنظیم شوند، یک احساس رایج است. اکثر دولت ها، توسعه دهندگان محصولات هوش مصنوعی و حتی کاربران عادی محصولات هوش مصنوعی در این مورد اتفاق نظر دارند. متأسفانه، بهترین راه برای تنظیم این زمینه به سرعت در حال رشد، یک پازل حل نشده است.
در صورت عدم کنترل، فناوریهای هوش مصنوعی میتوانند شیوه زندگی ما را مختل کنند و موجودیت ما را تهدید کنند. اما چگونه دولتها میتوانند در هزارتوی چالشهایی که با این حوزه به سرعت در حال تحول همراه است، عبور کنند؟
1. مقررات حفظ حریم خصوصی و حفاظت از داده ها
یکی از دغدغه های اصلی فناوری های هوش مصنوعی حفظ حریم خصوصی و امنیت داده ها است. سیستم های هوش مصنوعی ماشین های تشنه داده هستند. آنها برای کار کردن به داده، برای کارآمد بودن به داده های بیشتر و حتی برای بهبود به داده های بیشتری نیاز دارند. در حالی که این مشکلی نیست، روشی که این دادهها منبع میشوند، ماهیت آن، و نحوه پردازش و ذخیرهسازی آنها یکی از بزرگترین بحثها پیرامون مقررات هوش مصنوعی است.
با در نظر گرفتن این موضوع، مسیر منطقی که باید طی کرد، وضع مقررات سختگیرانه حفظ حریم خصوصی دادهها است که بر جمعآوری، ذخیرهسازی و پردازش دادهها و همچنین حقوق افراد – که از دادههایشان استفاده میشود – برای دسترسی و کنترل دادههایشان نظارت میکند. سؤالاتی که این مقررات احتمالاً به آنها پاسخ می دهد عبارتند از:
- چه نوع داده هایی را می توان جمع آوری کرد؟
- آیا برخی از داده های خصوصی باید در هوش مصنوعی تابو در نظر گرفته شوند؟
- شرکتهای هوش مصنوعی چگونه باید دادههای شخصی حساس مانند سوابق سلامت یا اطلاعات بیومتریک را مدیریت کنند؟
- آیا شرکتهای هوش مصنوعی باید مکانیسمهایی را برای افراد پیادهسازی کنند تا بتوانند به راحتی اطلاعات شخصی خود را حذف یا اصلاح کنند؟
- عواقب شرکت های هوش مصنوعی که از قوانین حفظ حریم خصوصی داده ها پیروی نمی کنند چیست؟ چگونه باید بر انطباق نظارت شود و چگونه باید از اجرای آن اطمینان حاصل شود؟
- شاید مهمتر از همه، شرکتهای هوش مصنوعی برای اطمینان از ایمنی ماهیت حساس اطلاعاتی که دارند، چه استانداردی را باید پیادهسازی کنند؟
این سؤالات و چند سؤال دیگر محور این بود که چرا ChatGPT به طور موقت در ایتالیا ممنوع شد. اگر به این نگرانیها رسیدگی نشود، فضای هوش مصنوعی ممکن است غرب وحشی برای حفظ حریم خصوصی دادهها باشد و ممنوعیت ایتالیا ممکن است الگویی برای ممنوعیتهای سایر کشورها در سراسر جهان باشد.
2. توسعه یک چارچوب هوش مصنوعی اخلاقی
شرکتهای هوش مصنوعی اغلب به تعهد خود به دستورالعملهای اخلاقی در توسعه سیستمهای هوش مصنوعی افتخار میکنند. حداقل روی کاغذ، همه آنها طرفداران توسعه هوش مصنوعی مسئولانه هستند. در رسانه ها، مدیران گوگل تاکید کرده اند که این شرکت چگونه ایمنی و اخلاق هوش مصنوعی را جدی می گیرد. به طور مشابه، “هوش مصنوعی ایمن و اخلاقی” یک شعار برای مدیر عامل OpenAI، سم آلتمن است. اینها کاملا قابل تحسین هستند.
اما چه کسی قوانین را تعیین می کند؟ چه کسی تصمیم می گیرد که کدام دستورالعمل های اخلاقی هوش مصنوعی به اندازه کافی خوب هستند؟ چه کسی تصمیم می گیرد که توسعه ایمن هوش مصنوعی چگونه باشد؟ در حال حاضر، به نظر میرسد که هر شرکت هوش مصنوعی به توسعه هوش مصنوعی مسئولانه و اخلاقی خود توجه دارد. OpenAI، Anthropic، Google، Meta، Microsoft، همه. تنها تکیه بر شرکت های هوش مصنوعی برای انجام کار درست خطرناک است.
عواقب یک فضای هوش مصنوعی کنترل نشده می تواند فاجعه بار باشد. اجازه دادن به شرکتها برای تصمیمگیری درباره اینکه چه دستورالعملهای اخلاقی را اتخاذ کنند و کدام را کنار بگذارند، شبیه به راه رفتن در خواب به سمت آخرالزمان هوش مصنوعی است. راه حل؟ یک چارچوب هوش مصنوعی اخلاقی واضح که تضمین می کند:
- سیستمهای هوش مصنوعی بر اساس نژاد، جنسیت یا وضعیت اجتماعی-اقتصادی، افراد یا گروههای خاصی را بهطور غیرمنصفانه آسیب نمیرسانند یا تبعیض قائل نمیشوند.
- سیستم های هوش مصنوعی ایمن، ایمن و قابل اعتماد هستند و خطر پیامدهای ناخواسته یا رفتار مضر را به حداقل می رساند.
- سیستمهای هوش مصنوعی با در نظر گرفتن تأثیر اجتماعی گستردهتر فناوریهای هوش مصنوعی ساخته شدهاند.
- این که انسان ها کنترل نهایی سیستم های هوش مصنوعی و تصمیم گیری آنها را به طور شفاف حفظ کنند.
- سیستمهای هوش مصنوعی عمداً به روشهایی محدود شدهاند که برای انسان مفید است.
3. آژانس تنظیم مقررات اختصاصی
به دلیل تأثیر بالقوه آن بر تمدن بشر، بحث در مورد ایمنی هوش مصنوعی معمولاً به موازات خطر یک بحران بهداشتی یا یک فاجعه هسته ای است. اجتناب از حوادث احتمالی هستهای به یک آژانس اختصاصی مانند NRC ایالات متحده (کمیسیون تنظیم مقررات هستهای) نیاز دارد. اجتناب از خطر بحرانهای خطرناک سلامتی مستلزم ایجاد FDA (سازمان غذا و دارو) است.
به طور مشابه، برای اطمینان از اینکه همه چیز در فضای هوش مصنوعی پیش نمیرود، یک آژانس اختصاصی مشابه FDA و NRC ضروری است زیرا هوش مصنوعی همچنان به هجوم تهاجمی به همه بخشهای زندگی ما ادامه میدهد. متأسفانه، موضوع مقررات هوش مصنوعی در داخل کشور موضوعی پیچیده است. کار هر آژانس نظارتی اختصاصی بدون همکاری فرامرزی احتمالاً به طرز عذاب آوری سخت خواهد بود. درست همانطور که NRC (کمیسیون تنظیم مقررات هسته ای) ایالات متحده باید دست در دست آژانس بین المللی انرژی اتمی (IAEA) کار کند تا در بهترین حالت خود قرار گیرد، هر آژانس نظارتی اختصاصی هوش مصنوعی در داخل کشور نیز به یک آنالوگ بین المللی نیاز دارد.
چنین آژانسی مسئول موارد زیر خواهد بود:
- توسعه مقررات هوش مصنوعی
- حصول اطمینان از رعایت و اجرا
- نظارت بر روند بررسی اخلاقی پروژه های هوش مصنوعی
- همکاری و همکاری بین کشوری در زمینه ایمنی و اخلاق هوش مصنوعی
4. رسیدگی به کپی رایت و نگرانی های مالکیت معنوی
قوانین کپی رایت و چارچوب های قانونی موجود در مواجهه با هوش مصنوعی فرو می ریزد. نحوه طراحی ابزارهای هوش مصنوعی، به ویژه ابزارهای هوش مصنوعی مولد، باعث میشود که آنها مانند یک دستگاه نقض حق چاپ مورد تایید عمومی به نظر برسند که نمیتوانید کاری در مورد آن انجام دهید.
چگونه؟ خب، بسیاری از سیستمهای هوش مصنوعی امروزی با استفاده از مواد دارای حق چاپ آموزش داده میشوند. می دانید، مقالات دارای حق چاپ، آهنگ های دارای حق چاپ، تصاویر دارای حق چاپ و غیره. ابزارهایی مانند ChatGPT، Bing AI و Google Bard می توانند کارهای فوق العاده ای را که انجام می دهند انجام دهند.
در حالی که این سیستمها به وضوح از مالکیت معنوی افراد استفاده میکنند، روشی که این سیستمهای هوش مصنوعی انجام میدهند با خواندن کتاب دارای حق چاپ توسط انسان، گوش دادن به آهنگهای دارای حق چاپ یا تماشای تصاویر دارای حق چاپ تفاوتی ندارد.
شما می توانید یک کتاب دارای حق چاپ را بخوانید، حقایق جدیدی را از آن یاد بگیرید و از آن حقایق به عنوان پایه ای برای کتاب خود استفاده کنید. همچنین می توانید برای الهام گرفتن از آهنگ های دارای حق چاپ گوش دهید تا موسیقی خود را بسازید. در هر دو مورد، شما از مطالب دارای حق چاپ استفاده کرده اید، اما لزوماً به این معنا نیست که محصول مشتق شده حق چاپ نسخه اصلی را نقض می کند.
در حالی که این توضیحی منطقی برای توضیح آشفتگی هایی است که هوش مصنوعی در مورد قوانین کپی رایت ایجاد می کند، اما همچنان به صاحبان حق چاپ و مالکیت معنوی آسیب می رساند. با توجه به این موضوع، مقرراتی لازم است:
- مسئولیت و مسئولیت همه طرف های درگیر در چرخه حیات یک سیستم هوش مصنوعی را به وضوح تعریف کنید. این شامل روشن کردن نقش هر طرف، از توسعهدهندگان هوش مصنوعی گرفته تا کاربران نهایی، میشود تا اطمینان حاصل شود که طرفهای مسئول در قبال هرگونه نقض حق نسخهبرداری یا نقض مالکیت معنوی انجام شده توسط سیستمهای هوش مصنوعی پاسخگو هستند.
- چارچوبهای حق نسخهبرداری موجود را تقویت کنید و شاید قوانین کپی رایت ویژه هوش مصنوعی را معرفی کنید.
- برای اطمینان از نوآوری در فضای هوش مصنوعی و در عین حال محافظت از حقوق سازندگان اصلی، مقررات هوش مصنوعی باید مفاهیم استفاده منصفانه و کار متحول کننده را در زمینه محتوای تولید شده توسط هوش مصنوعی بازتعریف کند. تعاریف و دستورالعملهای واضحتری مورد نیاز است تا اطمینان حاصل شود که فضای هوش مصنوعی میتواند با رعایت مرزهای حق چاپ به بهبود ادامه دهد. ایجاد تعادل بین نوآوری و حفظ حقوق تولیدکنندگان محتوا ضروری است.
- مسیرهای روشن برای همکاری با دارندگان حق. اگر قرار است سیستمهای هوش مصنوعی به هر حال از مالکیت معنوی افراد استفاده کنند، باید راهها یا چارچوبهای روشنی برای توسعهدهندگان و صاحبان حقوق هوش مصنوعی وجود داشته باشد تا بتوانند همکاری کنند، بهویژه از نظر غرامتهای مالی، در صورتی که کار مشتق شده از چنین داراییهای معنوی تجاری شود.
مقررات هوش مصنوعی یک راه حل به شدت مورد نیاز است
در حالی که هوش مصنوعی به عنوان یک راه حل امیدوارکننده برای بسیاری از مشکلات اجتماعی ما ظاهر شده است، خود هوش مصنوعی به سرعت در حال تبدیل شدن به یک مشکل است که نیاز به یک رفع فوری دارد. زمان آن رسیده است که یک گام به عقب بردارید، فکر کنید و اصلاحات لازم را برای اطمینان از تأثیر مثبت هوش مصنوعی بر جامعه انجام دهید. ما شدیداً به یک کالیبراسیون مجدد فوری در رویکردمان برای ساخت و استفاده از سیستمهای هوش مصنوعی نیاز داریم.