آیا منبع باز برای توسعه هوش مصنوعی خوب است؟
در حالی که نرم افزارهای انحصاری مانند GPT و PaLM بر بازار تسلط دارند، بسیاری از توسعه دهندگان به جای آن ارزشی را در مدل های زبان منبع باز می بینند. متا را به عنوان مثال در نظر بگیرید. در فوریه 2023 به دلیل انتشار رسمی مدل زبان بزرگ LLaMA به عنوان یک برنامه منبع باز، خبرساز شد. جای تعجب نیست که این تصمیم با واکنش های متفاوتی روبرو شد.
از آنجایی که مدلهای زبان منبع باز مزایا و معایب بسیاری دارند و میتوانند بر صنعت هوش مصنوعی تأثیر مثبت و منفی بگذارند، ما نکات کلیدی را که باید بدانید و درک کنید، خلاصه کردهایم.
5 تاثیر مثبت مدل های زبان منبع باز
مدلهای زبان منبع باز رویکردی مشارکتی را تقویت میکنند. ورودی، بررسیها و موارد استفاده از سوی توسعهدهندگان در سرتاسر جهان مسلماً به آنها کمک میکند تا سریعتر از پروژههای بسته پیشرفت کنند.
1. توسعه دهندگان هوش مصنوعی منابع را با استفاده از مدل های منبع باز ذخیره می کنند
راه اندازی مدل های زبان اختصاصی میلیون ها، اگر نگوییم میلیاردها، هزینه دارد. OpenAI را به عنوان مثال در نظر بگیرید. Business Insider گزارش می دهد که این شرکت باید حدود 30 میلیارد دلار برای اجرای موثر ChatGPT جمع آوری می کرد. کسب این مقدار بودجه برای اکثر شرکت ها غیرممکن است. استارتآپهای فناوری در مراحل اولیه خود خوش شانس خواهند بود که حتی هفت رقمی شوند.
با توجه به هزینه های بالا، بسیاری از توسعه دهندگان به جای آن از مدل های زبان منبع باز استفاده می کنند. آنها با استفاده از معماری، ساختار عصبی، داده های آموزشی، الگوریتم، پیاده سازی کد و مجموعه داده های آموزشی این سیستم ها میلیون ها صرفه جویی می کنند.
2. مدل های منبع باز احتمالاً سریعتر پیشرفت می کنند
بسیاری از رهبران فناوری استدلال می کنند که مدل های زبان منبع باز سریعتر از همتایان اختصاصی پیشرفت می کنند. آنها برای مشارکت و همکاری جامعه ارزش قائل هستند. میلیونها توسعهدهنده ماهر روی پروژههای باز کار میکنند – آنها از نظر تئوری میتوانند به تکرار پیچیده و بدون خطا بسیار سریعتر دست یابند.
پوشش شکاف های دانش نیز با هوش مصنوعی منبع باز سریعتر است. به جای آموزش تیمها برای یافتن باگها، آزمایش بهروزرسانیها و کاوش در پیادهسازی، شرکتها میتوانند مشارکتهای جامعه را تجزیه و تحلیل کنند. اشتراک دانش به کاربران امکان می دهد کارآمدتر کار کنند.
مشارکتهای انجمن همیشه دقیق نیستند. توسعهدهندگان باید الگوریتمها و مدلها را قبل از ادغام آنها در سیستمهای خود دوباره بررسی کنند.
3. توسعه دهندگان آسیب پذیری ها را سریعتر شناسایی می کنند
مدلهای زبان منبع باز، نظرات همتایان و مشارکت فعال را در جامعه مشارکتی تشویق میکنند. توسعه دهندگان می توانند آزادانه به تغییرات پایگاه کد دسترسی داشته باشند. با بسیاری از کاربرانی که پروژه های باز را تجزیه و تحلیل می کنند، احتمالاً مشکلات امنیتی، آسیب پذیری ها و اشکالات سیستم را سریعتر تشخیص می دهند.
به همین ترتیب، حل اشکال نیز ساده شده است. به جای حل دستی مشکلات سیستم، توسعه دهندگان می توانند سیستم کنترل نسخه پروژه را برای رفع تعمیرات قبلی بررسی کنند. برخی از ورودی ها ممکن است قدیمی باشند. با این حال، آنها همچنان نقطه شروع مفیدی را در اختیار محققان و مربیان هوش مصنوعی قرار می دهند.
4. رهبران فناوری هوش مصنوعی از مدل های منبع باز یاد می گیرند
مدل های زبان منبع باز از حلقه بازخورد سود می برند. حلقه بازخورد مثبت الگوریتمها، مجموعه دادهها و توابع مؤثر را به اشتراک میگذارد و توسعهدهندگان را تشویق به تقلید از آنها میکند. این فرآیند باعث صرفه جویی در زمان آنها می شود. فقط توجه داشته باشید که خطاها ممکن است با بازخورد مثبتی که کاربران به طور تصادفی تکرار میکنند، ایجاد شوند – اشتباهات معمولا نادیده گرفته میشوند.
در همین حال، حلقه بازخورد منفی بر حوزه های بهبود تمرکز دارد. این فرآیند شامل اشتراکگذاری بینشهای شخصی در حین رفع اشکالات، آزمایش عملکردهای جدید و رفع مشکلات سیستم است.
5. پلتفرمهای AI منبع باز اولین اطلاعات را در سیستمهای جدید دریافت میکنند
شرکت های فناوری از روی مهربانی سیستم های زبانی میلیاردی را به اشتراک نمی گذارند. در حالی که مجوزهای منبع باز به کاربران شخص ثالث آزادی تغییر و فروش سیستم ها را می دهند، اما محدودیت هایی دارند.
توزیع کنندگان اغلب شرایطی را ایجاد می کنند که تضمین می کند تا حدی اختیار را حفظ کنند. شما این قوانین را در موافقت نامه های مجوز برنامه های منبع باز خواهید یافت—کاربران نهایی به ندرت 100 درصد اختیار دارند.
بیایید بگوییم متا می خواهد بر محصولات دارای LLaMA کنترل داشته باشد. تیم حقوقی آن میتواند مشخص کند که متا این حق را برای خود محفوظ میدارد که در هر سیستم جدیدی که بر اساس مدل زبانی آن ساخته شده است، سرمایهگذاری کند.
اما سوء تفاهم نکنید – توسعهدهندگان و توزیعکنندگان شخص ثالث همچنان توافقنامههای سودمندی را ایجاد میکنند. دومی فناوری ها و سیستم های میلیارد دلاری را ارائه می دهد. در همین حال، استارتاپها و توسعهدهندگان مستقل راههای پیادهسازی آنها را در برنامههای مختلف بررسی میکنند.
5 تاثیر منفی مدل های زبان منبع باز
مدلهای زبان منبع باز ذاتاً بیطرفانه هستند، اما انسانها اینطور نیستند. مصرفکنندگان، توسعهدهندگان و شرکتهایی که قصد سوء قصد دارند میتوانند از ماهیت باز این سیستمها برای منافع شخصی سوء استفاده کنند.
1. شرکت ها به طور تصادفی به مسابقه هوش مصنوعی می پیوندند
در حال حاضر شرکت ها برای پیوستن به مسابقه هوش مصنوعی با فشار زیادی مواجه هستند. با رایج شدن سیستمهای هوش مصنوعی، بسیاری از شرکتها میترسند که اگر از هوش مصنوعی استفاده نکنند، منسوخ شوند. در نتیجه، برندها بهطور تصادفی به بازار میروند. آنها مدل های زبان منبع باز را به خاطر فروش محصول و همگام شدن با رقبا در محصولات خود ادغام می کنند، حتی اگر هیچ چیز ارزشمندی ارائه ندهند.
بله، هوش مصنوعی بازاری است که به سرعت در حال ظهور است. اما رهاسازی بیدقتی سیستمهای پیچیده و در عین حال ناایمن به صنعت آسیب میزند و ایمنی مصرفکننده را به خطر میاندازد. توسعه دهندگان باید از هوش مصنوعی برای حل مشکلات استفاده کنند، نه اینکه ترفندهای بازاریابی را اجرا کنند.
2. مصرف کنندگان به فناوری که به سختی درک می کنند دسترسی پیدا می کنند
انواع مختلفی از ابزارهای فناوری مبتنی بر هوش مصنوعی، از ویرایشگرهای تصویر آنلاین گرفته تا برنامه های نظارت بر سلامت را خواهید دید. و با پیشرفت هوش مصنوعی، برندها به معرفی سیستم های جدید ادامه خواهند داد. مدلهای هوش مصنوعی به آنها کمک میکنند تا نسخههای سفارشیتر و متمرکز بر کاربر پلتفرمهای موجود خود را ارائه دهند.
در حالی که صنعت فناوری از نوآوری ها استقبال می کند، تکامل سریع هوش مصنوعی از آموزش کاربران پیشی می گیرد. مصرف کنندگان به فناوری هایی دسترسی پیدا می کنند که به سختی درک می کنند. فقدان آموزش باعث ایجاد شکاف های گسترده در دانش می شود که عموم را مستعد تهدیدات امنیت سایبری و اقدامات غارتگرانه می کند.
برندها باید آموزش را به اندازه توسعه محصول در اولویت قرار دهند. آنها باید به کاربران کمک کنند تا راه های ایمن و مسئولانه برای استفاده از ابزارهای قدرتمند مبتنی بر هوش مصنوعی را درک کنند.
3. همه توسعه دهندگان نیت خوبی ندارند
همه از ابزارهای هوش مصنوعی برای هدف مورد نظر خود استفاده نمی کنند. به عنوان مثال، OpenAI ChatGPT را برای پاسخ دادن به سوالات دانش عمومی ایمن کار و تکرار خروجی زبان طبیعی توسعه داد، اما مجرمان از آن برای فعالیت های غیرقانونی سوء استفاده می کنند. از زمان راه اندازی چت ربات هوش مصنوعی در نوامبر 2022، چندین کلاهبرداری ChatGPT وجود داشته است.
حتی اگر آزمایشگاههای هوش مصنوعی محدودیتهای سختی را اعمال کنند، کلاهبرداران همچنان راههایی برای دور زدن آنها پیدا خواهند کرد. دوباره ChatGPT را به عنوان مثال در نظر بگیرید. کاربران با استفاده از اعلانهای فرار از زندان ChatGPT، محدودیتها را دور میزنند و کارهای ممنوعه را انجام میدهند.
مکالمات زیر این آسیب پذیری ها را نشان می دهد. ChatGPT مجموعه داده های محدودی دارد. از این رو، نمی تواند درباره رویدادهای ناپایدار و تضمین نشده پیش بینی کند.
ChatGPT علیرغم محدودیت هایش، درخواست ما را اجرا کرد و پس از جیلبریک کردن آن، پیش بینی های بی اساس ارائه کرد.
4. موسسات ممکن است در تنظیم هوش مصنوعی منبع باز مشکل داشته باشند
نهادهای نظارتی در تلاش هستند تا با هوش مصنوعی همگام شوند و تکثیر مدلهای منبع باز تنها نظارت را سختتر میکند. پیشرفت های هوش مصنوعی در حال حاضر از چارچوب های نظارتی پیشی گرفته است. حتی رهبران فناوری جهانی مانند ایلان ماسک، بیل گیتس و سام آلتمن خواستار مقررات سختگیرانهتر هوش مصنوعی هستند.
بخش خصوصی و دولتی باید این سیستم ها را کنترل کنند. در غیر این صورت، افراد مخرب به سوء استفاده از آنها برای نقض قوانین حفظ حریم خصوصی داده ها، اجرای سرقت هویت، و قربانیان کلاهبرداری و سایر فعالیت های غیرقانونی ادامه خواهند داد.
5. کاهش موانع ورود مانع از کیفیت می شود
گسترش مدل های زبان منبع باز موانع ورود برای پیوستن به مسابقه هوش مصنوعی را کاهش می دهد. هزاران ابزار مبتنی بر هوش مصنوعی را به صورت آنلاین پیدا خواهید کرد.
دیدن شرکتهایی که از یادگیری ماشینی و عمیق استفاده میکنند، ممکن است چشمگیر به نظر برسد، اما تعداد کمی از آنها ارزش واقعی را ارائه میکنند. بیشتر آنها صرفاً از رقبای خود کپی می کنند. با گذشت زمان، دسترسی به مدلهای زبانی پیچیده و مجموعه دادههای آموزشی ممکن است پلتفرمهای هوش مصنوعی بیمعنی را تولید کند.
تأثیر کلی مدلهای زبان منبع باز بر صنعت هوش مصنوعی
در حالی که مدلهای زبان منبع باز فناوریهای هوش مصنوعی را در دسترستر میکنند، اما خطرات امنیتی متعددی نیز به همراه دارند. توسعه دهندگان باید محدودیت های سخت گیرانه تری تعیین کنند. در غیر این صورت، کلاهبرداران به بهره برداری از معماری شفاف این سیستم ها ادامه خواهند داد.
گفته می شود، مصرف کنندگان در برابر کلاهبرداری های هوش مصنوعی کاملاً بی دفاع نیستند. با روش های متداول استفاده کلاهبرداران از ابزارهای هوش مصنوعی مولد و مطالعه علائم هشدار دهنده حملات آشنا شوید. شما می توانید با هوشیاری با اکثر جرایم سایبری مبارزه کنید.