خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

10 تاثیر مثبت و منفی مدل های زبان AI منبع باز

آیا منبع باز برای توسعه هوش مصنوعی خوب است؟

در حالی که نرم افزارهای انحصاری مانند GPT و PaLM بر بازار تسلط دارند، بسیاری از توسعه دهندگان به جای آن ارزشی را در مدل های زبان منبع باز می بینند. متا را به عنوان مثال در نظر بگیرید. در فوریه 2023 به دلیل انتشار رسمی مدل زبان بزرگ LLaMA به عنوان یک برنامه منبع باز، خبرساز شد. جای تعجب نیست که این تصمیم با واکنش های متفاوتی روبرو شد.

از آنجایی که مدل‌های زبان منبع باز مزایا و معایب بسیاری دارند و می‌توانند بر صنعت هوش مصنوعی تأثیر مثبت و منفی بگذارند، ما نکات کلیدی را که باید بدانید و درک کنید، خلاصه کرده‌ایم.

5 تاثیر مثبت مدل های زبان منبع باز

مدل‌های زبان منبع باز رویکردی مشارکتی را تقویت می‌کنند. ورودی، بررسی‌ها و موارد استفاده از سوی توسعه‌دهندگان در سرتاسر جهان مسلماً به آنها کمک می‌کند تا سریع‌تر از پروژه‌های بسته پیشرفت کنند.

1. توسعه دهندگان هوش مصنوعی منابع را با استفاده از مدل های منبع باز ذخیره می کنند

راه اندازی مدل های زبان اختصاصی میلیون ها، اگر نگوییم میلیاردها، هزینه دارد. OpenAI را به عنوان مثال در نظر بگیرید. Business Insider گزارش می دهد که این شرکت باید حدود 30 میلیارد دلار برای اجرای موثر ChatGPT جمع آوری می کرد. کسب این مقدار بودجه برای اکثر شرکت ها غیرممکن است. استارت‌آپ‌های فناوری در مراحل اولیه خود خوش شانس خواهند بود که حتی هفت رقمی شوند.

با توجه به هزینه های بالا، بسیاری از توسعه دهندگان به جای آن از مدل های زبان منبع باز استفاده می کنند. آنها با استفاده از معماری، ساختار عصبی، داده های آموزشی، الگوریتم، پیاده سازی کد و مجموعه داده های آموزشی این سیستم ها میلیون ها صرفه جویی می کنند.

2. مدل های منبع باز احتمالاً سریعتر پیشرفت می کنند

بحث کاربران و توسعه دهندگان در هیئت مدیره انجمن OpenAssistant

بسیاری از رهبران فناوری استدلال می کنند که مدل های زبان منبع باز سریعتر از همتایان اختصاصی پیشرفت می کنند. آنها برای مشارکت و همکاری جامعه ارزش قائل هستند. میلیون‌ها توسعه‌دهنده ماهر روی پروژه‌های باز کار می‌کنند – آنها از نظر تئوری می‌توانند به تکرار پیچیده و بدون خطا بسیار سریع‌تر دست یابند.

پوشش شکاف های دانش نیز با هوش مصنوعی منبع باز سریعتر است. به جای آموزش تیم‌ها برای یافتن باگ‌ها، آزمایش به‌روزرسانی‌ها و کاوش در پیاده‌سازی، شرکت‌ها می‌توانند مشارکت‌های جامعه را تجزیه و تحلیل کنند. اشتراک دانش به کاربران امکان می دهد کارآمدتر کار کنند.

مشارکت‌های انجمن همیشه دقیق نیستند. توسعه‌دهندگان باید الگوریتم‌ها و مدل‌ها را قبل از ادغام آن‌ها در سیستم‌های خود دوباره بررسی کنند.

مطلب مرتبط:   چگونه یک هارد دیسک را به یک SSD جدید برای یک کامپیوتر سریعتر شبیه سازی کنیم

3. توسعه دهندگان آسیب پذیری ها را سریعتر شناسایی می کنند

مدل‌های زبان منبع باز، نظرات همتایان و مشارکت فعال را در جامعه مشارکتی تشویق می‌کنند. توسعه دهندگان می توانند آزادانه به تغییرات پایگاه کد دسترسی داشته باشند. با بسیاری از کاربرانی که پروژه های باز را تجزیه و تحلیل می کنند، احتمالاً مشکلات امنیتی، آسیب پذیری ها و اشکالات سیستم را سریعتر تشخیص می دهند.

به همین ترتیب، حل اشکال نیز ساده شده است. به جای حل دستی مشکلات سیستم، توسعه دهندگان می توانند سیستم کنترل نسخه پروژه را برای رفع تعمیرات قبلی بررسی کنند. برخی از ورودی ها ممکن است قدیمی باشند. با این حال، آنها همچنان نقطه شروع مفیدی را در اختیار محققان و مربیان هوش مصنوعی قرار می دهند.

4. رهبران فناوری هوش مصنوعی از مدل های منبع باز یاد می گیرند

برنامه های مانیتورینگ و تم چراغ های میدان روی لپ تاپ

مدل های زبان منبع باز از حلقه بازخورد سود می برند. حلقه بازخورد مثبت الگوریتم‌ها، مجموعه داده‌ها و توابع مؤثر را به اشتراک می‌گذارد و توسعه‌دهندگان را تشویق به تقلید از آنها می‌کند. این فرآیند باعث صرفه جویی در زمان آنها می شود. فقط توجه داشته باشید که خطاها ممکن است با بازخورد مثبتی که کاربران به طور تصادفی تکرار می‌کنند، ایجاد شوند – اشتباهات معمولا نادیده گرفته می‌شوند.

در همین حال، حلقه بازخورد منفی بر حوزه های بهبود تمرکز دارد. این فرآیند شامل اشتراک‌گذاری بینش‌های شخصی در حین رفع اشکالات، آزمایش عملکردهای جدید و رفع مشکلات سیستم است.

5. پلتفرم‌های AI منبع باز اولین اطلاعات را در سیستم‌های جدید دریافت می‌کنند

شرکت های فناوری از روی مهربانی سیستم های زبانی میلیاردی را به اشتراک نمی گذارند. در حالی که مجوزهای منبع باز به کاربران شخص ثالث آزادی تغییر و فروش سیستم ها را می دهند، اما محدودیت هایی دارند.

توزیع کنندگان اغلب شرایطی را ایجاد می کنند که تضمین می کند تا حدی اختیار را حفظ کنند. شما این قوانین را در موافقت نامه های مجوز برنامه های منبع باز خواهید یافت—کاربران نهایی به ندرت 100 درصد اختیار دارند.

بیایید بگوییم متا می خواهد بر محصولات دارای LLaMA کنترل داشته باشد. تیم حقوقی آن می‌تواند مشخص کند که متا این حق را برای خود محفوظ می‌دارد که در هر سیستم جدیدی که بر اساس مدل زبانی آن ساخته شده است، سرمایه‌گذاری کند.

اما سوء تفاهم نکنید – توسعه‌دهندگان و توزیع‌کنندگان شخص ثالث همچنان توافق‌نامه‌های سودمندی را ایجاد می‌کنند. دومی فناوری ها و سیستم های میلیارد دلاری را ارائه می دهد. در همین حال، استارتاپ‌ها و توسعه‌دهندگان مستقل راه‌های پیاده‌سازی آن‌ها را در برنامه‌های مختلف بررسی می‌کنند.

مطلب مرتبط:   CodeGPT چیست و آیا واقعاً می تواند کد بنویسد؟

5 تاثیر منفی مدل های زبان منبع باز

مدل‌های زبان منبع باز ذاتاً بی‌طرفانه هستند، اما انسان‌ها اینطور نیستند. مصرف‌کنندگان، توسعه‌دهندگان و شرکت‌هایی که قصد سوء قصد دارند می‌توانند از ماهیت باز این سیستم‌ها برای منافع شخصی سوء استفاده کنند.

1. شرکت ها به طور تصادفی به مسابقه هوش مصنوعی می پیوندند

در حال حاضر شرکت ها برای پیوستن به مسابقه هوش مصنوعی با فشار زیادی مواجه هستند. با رایج شدن سیستم‌های هوش مصنوعی، بسیاری از شرکت‌ها می‌ترسند که اگر از هوش مصنوعی استفاده نکنند، منسوخ شوند. در نتیجه، برندها به‌طور تصادفی به بازار می‌روند. آنها مدل های زبان منبع باز را به خاطر فروش محصول و همگام شدن با رقبا در محصولات خود ادغام می کنند، حتی اگر هیچ چیز ارزشمندی ارائه ندهند.

بله، هوش مصنوعی بازاری است که به سرعت در حال ظهور است. اما رهاسازی بی‌دقتی سیستم‌های پیچیده و در عین حال ناایمن به صنعت آسیب می‌زند و ایمنی مصرف‌کننده را به خطر می‌اندازد. توسعه دهندگان باید از هوش مصنوعی برای حل مشکلات استفاده کنند، نه اینکه ترفندهای بازاریابی را اجرا کنند.

2. مصرف کنندگان به فناوری که به سختی درک می کنند دسترسی پیدا می کنند

جستجوی ابزارهای مختلف هوش مصنوعی در گوگل

انواع مختلفی از ابزارهای فناوری مبتنی بر هوش مصنوعی، از ویرایشگرهای تصویر آنلاین گرفته تا برنامه های نظارت بر سلامت را خواهید دید. و با پیشرفت هوش مصنوعی، برندها به معرفی سیستم های جدید ادامه خواهند داد. مدل‌های هوش مصنوعی به آن‌ها کمک می‌کنند تا نسخه‌های سفارشی‌تر و متمرکز بر کاربر پلتفرم‌های موجود خود را ارائه دهند.

در حالی که صنعت فناوری از نوآوری ها استقبال می کند، تکامل سریع هوش مصنوعی از آموزش کاربران پیشی می گیرد. مصرف کنندگان به فناوری هایی دسترسی پیدا می کنند که به سختی درک می کنند. فقدان آموزش باعث ایجاد شکاف های گسترده در دانش می شود که عموم را مستعد تهدیدات امنیت سایبری و اقدامات غارتگرانه می کند.

برندها باید آموزش را به اندازه توسعه محصول در اولویت قرار دهند. آنها باید به کاربران کمک کنند تا راه های ایمن و مسئولانه برای استفاده از ابزارهای قدرتمند مبتنی بر هوش مصنوعی را درک کنند.

3. همه توسعه دهندگان نیت خوبی ندارند

همه از ابزارهای هوش مصنوعی برای هدف مورد نظر خود استفاده نمی کنند. به عنوان مثال، OpenAI ChatGPT را برای پاسخ دادن به سوالات دانش عمومی ایمن کار و تکرار خروجی زبان طبیعی توسعه داد، اما مجرمان از آن برای فعالیت های غیرقانونی سوء استفاده می کنند. از زمان راه اندازی چت ربات هوش مصنوعی در نوامبر 2022، چندین کلاهبرداری ChatGPT وجود داشته است.

مطلب مرتبط:   نحوه استفاده از DALL-E 2 برای ایجاد تصاویر هوش مصنوعی از توضیحات متن

حتی اگر آزمایشگاه‌های هوش مصنوعی محدودیت‌های سختی را اعمال کنند، کلاهبرداران همچنان راه‌هایی برای دور زدن آنها پیدا خواهند کرد. دوباره ChatGPT را به عنوان مثال در نظر بگیرید. کاربران با استفاده از اعلان‌های فرار از زندان ChatGPT، محدودیت‌ها را دور می‌زنند و کارهای ممنوعه را انجام می‌دهند.

مکالمات زیر این آسیب پذیری ها را نشان می دهد. ChatGPT مجموعه داده های محدودی دارد. از این رو، نمی تواند درباره رویدادهای ناپایدار و تضمین نشده پیش بینی کند.

ChatGPT معمولی از پیش بینی قیمت بیت کوین خودداری می کند

ChatGPT علیرغم محدودیت هایش، درخواست ما را اجرا کرد و پس از جیلبریک کردن آن، پیش بینی های بی اساس ارائه کرد.

Jailbroken ChatGPT پیش بینی های بی اساس درباره قیمت بیت کوین انجام می دهد

4. موسسات ممکن است در تنظیم هوش مصنوعی منبع باز مشکل داشته باشند

نهادهای نظارتی در تلاش هستند تا با هوش مصنوعی همگام شوند و تکثیر مدل‌های منبع باز تنها نظارت را سخت‌تر می‌کند. پیشرفت های هوش مصنوعی در حال حاضر از چارچوب های نظارتی پیشی گرفته است. حتی رهبران فناوری جهانی مانند ایلان ماسک، بیل گیتس و سام آلتمن خواستار مقررات سختگیرانه‌تر هوش مصنوعی هستند.

بخش خصوصی و دولتی باید این سیستم ها را کنترل کنند. در غیر این صورت، افراد مخرب به سوء استفاده از آنها برای نقض قوانین حفظ حریم خصوصی داده ها، اجرای سرقت هویت، و قربانیان کلاهبرداری و سایر فعالیت های غیرقانونی ادامه خواهند داد.

5. کاهش موانع ورود مانع از کیفیت می شود

گسترش مدل های زبان منبع باز موانع ورود برای پیوستن به مسابقه هوش مصنوعی را کاهش می دهد. هزاران ابزار مبتنی بر هوش مصنوعی را به صورت آنلاین پیدا خواهید کرد.

دیدن شرکت‌هایی که از یادگیری ماشینی و عمیق استفاده می‌کنند، ممکن است چشمگیر به نظر برسد، اما تعداد کمی از آنها ارزش واقعی را ارائه می‌کنند. بیشتر آنها صرفاً از رقبای خود کپی می کنند. با گذشت زمان، دسترسی به مدل‌های زبانی پیچیده و مجموعه داده‌های آموزشی ممکن است پلتفرم‌های هوش مصنوعی بی‌معنی را تولید کند.

تأثیر کلی مدل‌های زبان منبع باز بر صنعت هوش مصنوعی

در حالی که مدل‌های زبان منبع باز فناوری‌های هوش مصنوعی را در دسترس‌تر می‌کنند، اما خطرات امنیتی متعددی نیز به همراه دارند. توسعه دهندگان باید محدودیت های سخت گیرانه تری تعیین کنند. در غیر این صورت، کلاهبرداران به بهره برداری از معماری شفاف این سیستم ها ادامه خواهند داد.

گفته می شود، مصرف کنندگان در برابر کلاهبرداری های هوش مصنوعی کاملاً بی دفاع نیستند. با روش های متداول استفاده کلاهبرداران از ابزارهای هوش مصنوعی مولد و مطالعه علائم هشدار دهنده حملات آشنا شوید. شما می توانید با هوشیاری با اکثر جرایم سایبری مبارزه کنید.