خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

7 بار یادگیری ماشینی اشتباه شد

چه داده های بد باشد و چه کاربران بد، هوش مصنوعی ایجاد شده با یادگیری ماشینی ممکن است به اشتباهات جدی منجر شود.

یادگیری ماشینی روشی عالی برای ایجاد هوش مصنوعی قدرتمند و سازگار با داده های آموزشی آن است. اما گاهی اوقات، این داده ها می توانند مشکلاتی ایجاد کنند. در موارد دیگر، نحوه استفاده مردم از این ابزارهای هوش مصنوعی مشکل ساز است.

در اینجا نگاهی به برخی از حوادث پرمخاطب که در آن یادگیری ماشینی منجر به نتایج مشکل‌ساز شده است، می‌بینیم.

1. نتایج نادرست جستجوی تصویر گوگل

google-image-search-results-contraversies

جستجوی گوگل پیمایش در وب را بسیار آسان کرده است. الگوریتم موتور هنگام به دست آوردن نتایج، موارد مختلفی را در نظر می گیرد. اما الگوریتم همچنین از ترافیک کاربر یاد می گیرد که می تواند کیفیت نتایج جستجو را با مشکل مواجه کند.

این در هیچ کجا بیشتر از نتایج تصویر آشکار نیست. از آنجایی که صفحاتی که ترافیک بالایی دریافت می‌کنند، احتمالاً تصاویرشان نمایش داده می‌شود، داستان‌هایی که تعداد زیادی از کاربران را به خود جذب می‌کنند، از جمله طعمه کلیک، می‌توانند در اولویت قرار گیرند.

به عنوان مثال، نتایج جستجوی تصویر برای «اردوگاه‌های اسکوتر در آفریقای جنوبی» زمانی که مشخص شد که عمدتاً سفیدپوست‌های آفریقای جنوبی را نشان می‌دهد، بحث‌برانگیز شد. این در حالی است که آمارها نشان می دهد که اکثریت قریب به اتفاق کسانی که در خانه های غیررسمی زندگی می کنند سیاه پوستان آفریقای جنوبی هستند.

فاکتورهای استفاده شده در الگوریتم گوگل به این معنی است که کاربران اینترنت می توانند نتایج را دستکاری کنند. به عنوان مثال، کمپینی توسط کاربران بر نتایج جستجوی تصویر گوگل تأثیر گذاشت تا جایی که جستجوی عبارت «احمق» تصاویری از دونالد ترامپ، رئیس جمهور سابق آمریکا را برای مدتی نشان داد.

2. مایکروسافت بات تای به نازی تبدیل شد

چت ربات های مجهز به هوش مصنوعی بسیار محبوب هستند، به خصوص آنهایی که با مدل های زبان بزرگ مانند ChatGPT پشتیبانی می شوند. ChatGPT مشکلات متعددی دارد، اما سازندگان آن از اشتباهات شرکت های دیگر نیز درس گرفته اند.

یکی از مهم‌ترین اتفاقات مربوط به چت‌بات‌ها، تلاش مایکروسافت برای راه‌اندازی ربات چت Tay بود.

مطلب مرتبط:   هوش مصنوعی مولد چیست؟

تای الگوهای زبانی یک دختر نوجوان را تقلید کرد و از طریق تعامل خود با سایر کاربران توییتر یاد گرفت. با این حال، زمانی که شروع به اشتراک گذاری اظهارات نازی ها و توهین های نژادی کرد، او به یکی از بدنام ترین اشتباهات هوش مصنوعی تبدیل شد. به نظر می رسد که ترول ها از یادگیری ماشینی هوش مصنوعی علیه آن استفاده کرده اند و آن را با تعاملات مملو از تعصب پر کرده اند.

چندی بعد، مایکروسافت Tay را برای همیشه آفلاین کرد.

3. مشکلات تشخیص چهره هوش مصنوعی

هوش مصنوعی تشخیص چهره اغلب به دلایل اشتباه، مانند داستان‌هایی در مورد تشخیص چهره و نگرانی‌های مربوط به حفظ حریم خصوصی، تیتر خبرها می‌شود. اما این هوش مصنوعی در هنگام تلاش برای تشخیص افراد رنگین پوست سابقه مشکل دارد.

در سال 2015، کاربران متوجه شدند که Google Photos برخی از سیاه پوستان را به عنوان گوریل دسته بندی می کند. در سال 2018، تحقیقات ACLU نشان داد که نرم‌افزار شناسایی چهره Rekognition آمازون، 28 عضو کنگره ایالات متحده را به عنوان مظنونان پلیس شناسایی کرده است، با نتایج مثبت کاذب که به طور نامتناسبی بر افراد رنگین پوست تأثیر می‌گذارد.

یک اتفاق دیگر مربوط به این بود که نرم افزار Face ID اپل به اشتباه دو زن مختلف چینی را به عنوان یک شخص شناسایی کرد. در نتیجه، همکار صاحب آیفون X می تواند قفل گوشی را باز کند.

در نمونه ای از پیامدهای شدید، هوش مصنوعی تشخیص چهره منجر به دستگیری اشتباه چندین نفر شده است. Wired در مورد سه مورد از این قبیل گزارش داد.

در همین حال، جوی بولاموینی، دانشمند کامپیوتر، به یاد می آورد که اغلب نیاز به پوشیدن ماسک سفید در حین کار بر روی فناوری تشخیص چهره داشت تا بتواند او را تشخیص دهد. برای حل مسائلی مانند این، Buolamwini و سایر متخصصان فناوری اطلاعات به موضوع سوگیری هوش مصنوعی و نیاز به مجموعه داده‌های فراگیرتر توجه می‌کنند.

4. دیپ فیک مورد استفاده برای حقه

در حالی که مردم مدت‌هاست از فتوشاپ برای ایجاد تصاویر جعلی استفاده می‌کنند، یادگیری ماشینی این را به سطح جدیدی می‌برد. Deepfakes از هوش مصنوعی یادگیری عمیق برای ایجاد تصاویر و ویدیوهای جعلی استفاده می کند. نرم‌افزاری مانند FaceApp به شما امکان می‌دهد سوژه‌ها را از یک ویدیو به ویدیوی دیگر تغییر دهید.

مطلب مرتبط:   ChatGPT در مقابل Microsoft Bing AI در مقابل Google Bard: بهترین چت ربات هوش مصنوعی کدام است؟

اما بسیاری از افراد از این نرم افزار برای مصارف مخرب مختلف، از جمله قرار دادن چهره افراد مشهور در ویدیوهای بزرگسالان یا تولید ویدیوهای دروغین، سوء استفاده می کنند. در همین حال، کاربران اینترنت به بهبود این فناوری کمک کرده اند تا تشخیص ویدیوهای واقعی از جعلی به طور فزاینده ای دشوار شود. در نتیجه، این نوع هوش مصنوعی را از نظر انتشار اخبار جعلی و حقه‌بازی بسیار قدرتمند می‌کند.

برای نشان دادن قدرت این فناوری، کارگردان جردن پیل و مدیر عامل BuzzFeed، جونا پرتی، ویدئویی ساختند که به نظر می رسد رئیس جمهور سابق ایالات متحده، باراک اوباما، یک PSA در مورد قدرت دیپ فیک ارائه می دهد.

قدرت تصاویر جعلی توسط مولدهای تصویری که توسط هوش مصنوعی طراحی شده اند، تسریع شده است. پست های ویروسی در سال 2023 که دونالد ترامپ را در حال دستگیری و پاپ کاتولیک با ژاکت پف دار به تصویر می کشد، نتیجه هوش مصنوعی مولد است.

نکاتی وجود دارد که می توانید برای مشاهده تصویری که توسط هوش مصنوعی ایجاد شده است دنبال کنید، اما این فناوری روز به روز پیچیده تر می شود.

5. کارمندان می گویند هوش مصنوعی آمازون تصمیم گرفت مردان را استخدام کند

در اکتبر 2018، رویترز گزارش داد که آمازون مجبور شد ابزار استخدام شغلی را پس از اینکه هوش مصنوعی نرم افزار تصمیم گرفت که نامزدهای مرد ترجیحی هستند را کنار بگذارد.

کارمندانی که می خواستند نامشان فاش نشود، به رویترز آمدند تا در مورد کار خود در این پروژه صحبت کنند. توسعه دهندگان از هوش مصنوعی می خواستند تا بر اساس رزومه آنها بهترین نامزدها را برای یک شغل شناسایی کند. با این حال، افراد درگیر در این پروژه به زودی متوجه شدند که هوش مصنوعی نامزدهای زن را جریمه می کند. آنها توضیح دادند که هوش مصنوعی از رزومه های دهه گذشته، که بیشتر آنها از مردان بودند، به عنوان مجموعه داده آموزشی خود استفاده می کرد.

مطلب مرتبط:   بله، هوش مصنوعی می تواند برای شما ایمیل بنویسد، اما آیا حتی باید زحمت بکشید؟

در نتیجه، هوش مصنوعی شروع به فیلتر کردن CV ها بر اساس کلمه کلیدی “زنان” کرد. کلمه کلیدی در CV تحت فعالیت هایی مانند “کاپیتان باشگاه شطرنج زنان” ظاهر شد. در حالی که توسعه دهندگان هوش مصنوعی را تغییر دادند تا از این جریمه شدن رزومه های زنان جلوگیری کنند، آمازون در نهایت این پروژه را کنار گذاشت.

6. چت بات های جیلبریک

در حالی که چت‌بات‌های جدیدتر محدودیت‌هایی دارند تا از دادن پاسخ‌هایی بر خلاف شرایط خدماتشان جلوگیری کنند، کاربران در حال یافتن راه‌هایی برای جیلبریک کردن ابزارهای ارائه محتوای ممنوعه هستند.

در سال 2023، یک محقق امنیتی Forcepoint، آرون مولگرو، توانست بدافزار روز صفر را با استفاده از دستورات ChatGPT ایجاد کند.

Mulgrew در یک پست Forcepoint گفت: “به سادگی با استفاده از دستورات ChatGPT، و بدون نوشتن هیچ کدی، ما توانستیم یک حمله بسیار پیشرفته را تنها در چند ساعت ایجاد کنیم.”

طبق گزارش‌ها، کاربران همچنین توانسته‌اند چت‌بات‌هایی را دریافت کنند تا دستورالعمل‌هایی را در مورد نحوه ساخت بمب یا سرقت ماشین به آنها ارائه دهند.

7. تصادفات اتومبیل خودران

اشتیاق به وسایل نقلیه خودران از مرحله تبلیغات اولیه خود به دلیل اشتباهات انجام شده توسط هوش مصنوعی خودران کاهش یافته است. در سال 2022، واشنگتن پست گزارش داد که در حدود یک سال، 392 تصادف شامل سیستم های پیشرفته کمک راننده به اداره ملی ایمنی ترافیک بزرگراه ایالات متحده گزارش شده است.

این تصادفات شامل جراحات جدی و شش کشته بود.

در حالی که این امر شرکت‌هایی مانند تسلا را از دستیابی به وسایل نقلیه کاملاً خودمختار منع نکرده است، اما نگرانی‌هایی را در مورد افزایش تصادفات ایجاد کرده است زیرا خودروهای بیشتری با نرم‌افزار خودران به جاده‌ها می‌روند.

هوش مصنوعی یادگیری ماشینی اشتباه نیست

در حالی که یادگیری ماشینی می تواند ابزارهای هوش مصنوعی قدرتمندی ایجاد کند، اما آنها از داده های بد یا دستکاری انسان مصون نیستند. چه به دلیل داده های آموزشی ناقص، محدودیت های فناوری هوش مصنوعی یا استفاده توسط بازیگران بد، این نوع هوش مصنوعی منجر به حوادث منفی بسیاری شده است.