خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

سوءاستفاده از ربات‌های گفتگویی هوش مصنوعی: ۶ اشتباه رایج که باید از آن‌ها اجتناب کرد

من زیاد از چت‌بات‌های هوش مصنوعی استفاده می‌کنم. آن‌ها ابزارهای شگفت‌انگیزی هستند به‌شرطی که محدودیت‌هایشان را بیاموزید و با کمی مراقبت با آن‌ها رفتار کنید. اما هر چه بیشتر می‌بینم مردم چگونه با آن‌ها تعامل می‌کنند، بیشتر متوجه می‌شوم که برخی افراد به‌نحوی نادرست با آن‌ها رفتار می‌کنند. و صادقانه بگویم، این خسته‌کننده است.

من به‌طور زیاد از ربات‌های چت هوش مصنوعی استفاده می‌کنم. آن‌ها ابزارهای شگفت‌انگیزی هستند به‌شرط این‌که محدودیت‌هایشان را بفهمید و با کمی مراقبت با آن‌ها رفتار کنید. اما هرچه بیشتر می‌بینم افراد چگونه با آن‌ها تعامل می‌کنند، بیشتر متوجه می‌شوم برخی افراد به‌نادرست با آن‌ها رفتار می‌کنند. و صادقانه بگویم، این خسته‌کننده است.

6 استفاده از هوش مصنوعی برای تأیید تعصبات خود

بسیاری از افراد عاشق استفاده از هوش مصنوعی به‌عنوان ابزاری برای تقویت نظرات پیشین خود هستند. آن‌ها سؤالات واضحاً پرپشت‌گیری می‌پرسند، مثلاً «توضیح بده چرا [این ایده بزرگ من] واقعاً عالی است» یا «اثبات کن که [نحوۀ ایدئولوژی من] برای همه بهترین است»، و سپس با سر تکان مثبت، وقتی هوش مصنوعی پاراگرافی که با آن‌ها موافق است می‌آورد، رضایت نشان می‌دهند. اگر هوش مصنوعی بلافاصله باورهایشان را بازتاب ندهد، آن‌ها عبارات را تغییر می‌دهند، زمینه را به نفع خود تنظیم می‌کنند، یا مستقیماً از آن می‌خواهند از دیدگاهشان استدلال کند تا سرانجام تحت تأثیر قرار گیرد.

ChatGPT در حال تأیید تعصب یک نفر

مسئله این است که ربات‌های چت طوری طراحی شده‌اند که مفید، موافق و غیرمخالف باشند. اگر درخواست خود را به شیوه‌ای خاص بیان کنید، می‌توانید عملاً آن‌ها را وادار به گفتن هرچه می‌خواهید کنید. و وقتی هوش مصنوعی را به این شکل استفاده می‌کنید، چیز جدیدی یاد نمی‌گیرید. در واقع، فقط محفظه انعکاس شخصی خود را می‌سازید.

5 درخواست هوش مصنوعی برای جایگزینی حس منطقی پایه

برخی سؤال‌هایی که دیده‌ام مردم از هوش مصنوعی می‌پرسند مرا متوقف می‌کند و باعث می‌شود بپرسم آیا بیش از حد به آن وابسته‌اند یا نه. من افراد را دیده‌ام که می‌پرسند «آیا می‌توانم آب را در مخزن بنزین بگذارم؟» یا «آیا باید وقتی دما پنج درجه است، ژاکت بپوشم؟» این نوع سؤالات نیازی به توان مغزی یک مدل زبان بزرگ ندارند؛ فقط کافی است دو ثانیه ایستاده و فکر کنید.

Business Insider اشاره کرد که حتی سم آلتمن از OpenAI هشدارهایی درباره این روند مطرح کرده است. او بر این نکته تأکید کرد که برخی جوانان به‌قدری به‌صورت عاطفی به ChatGPT وابسته می‌شوند که ادعا می‌کنند بدون آن نمی‌توانند تصمیم بگیرند. او گفت که وابستگی بیش از حد به هوش مصنوعی «بد و خطرناک» است.

مطلب مرتبط:   اکنون دو دلیل جدید برای امتحان پادکست های هوش مصنوعی گوگل دارید

این به این معنا نیست که هوش مصنوعی نمی‌تواند به سؤالات ساده پاسخ دهد—البته می‌تواند. اما اتکا به آن برای هر تصمیم کوچکی مانند برون‌سپاری توانایی‌تان برای تنفس است. همه چیز نیاز به حکم ربط ربات چت ندارد.

4 رفتار با هوش مصنوعی به‌عنوان یک شخص

همچنین یک روند عجیب وجود دارد که مردم ربات‌های چت هوش مصنوعی را گویی انسان‌های دارای احساس هستند، رفتار می‌کنند. می‌بینید افراد وقتی فکر می‌کنند به ربات «بی‌ادب» شده‌اند عذرخواهی می‌کنند، با تشکر مداوم برای پاسخ‌های روتین آن را شست‌وشو می‌کنند، یا حتی مشکلات شخصی خود را همانند صحبت با دوست نزدیک بازگو می‌کنند. از همه بدتر، من حتی دیده‌ام که برخی می‌گویند در یک رابطه با ربات چت هستند.

برنامه‌های همراه مانند Replika، Character.ai و حتی Meta (فیس‌بوک و اینستاگرام) خطوط مرزی را مبهم می‌کنند. این برنامه‌ها به‌صورت فعال ربات‌ها را به‌عنوان «همسر»، «دوست دختر» یا حتی «همسر» بازاریابی می‌کنند و میلیون‌ها نفر روزانه برای احساس نزدیکی عاطفی به آن‌ها وارد می‌شوند. Mashable حتی نظرسنجی‌ای از Match.com را ذکر کرد که نشان می‌دهد ۱۶٪ از مجردان، از جمله حدود یک‌سوم نسل Z، پیش از این با هوش مصنوعی برای نوعی همراهی رمانتیک تعامل داشته‌اند.

زمانی که بیش از حد هوش مصنوعی را انسان‌سازی می‌کنیم (پدیده‌ای که به اثر الیزا شناخته می‌شود، جایی که کاربران به‌طور طبیعی درک انسانی را به الگوریتم‌ها نسبت می‌دهند حتی وقتی آگاهانه می‌دانند خلاف آن است)، توقعاتمان دچار تحریف می‌شود. این می‌تواند تعامل با انسان‌های واقعی را کمتر رضایت‌بخش کند، که مشکلی دیگر است.

و تحقیقات نیز این را تأیید می‌کند. در یک مطالعه چهار هفته‌ای با عنوان How AI and Human Behaviors Shape Psychosocial Effects of Chatbot Use، افرادی که زمان بیشتری را صرف مکالمات شخصی یا صوتی با ربات‌ها کردند، سطوح بالاتری از تنهایی، وابستگی عاطفی و کاهش تعاملات اجتماعی با انسان‌های واقعی گزارش کردند. بنابراین در حالی که «عشق» به هوش مصنوعی ممکن است لحظه‌ای مسحورکننده به‌نظر برسد، در نهایت یک سراب است. جالب است، بله، اما چیزی نیست که بتوان به‌طور واقعی در دست گرفت.

مطلب مرتبط:   چرا باید استفاده از مولدهای هنری هوش مصنوعی را متوقف کنید؟

3 به اشتراک‌گذاری پاسخ‌های هوش مصنوعی بدون زمینه

نمی‌توانم شمارش کنم چند بار اسکرین‌شات‌های پاسخ‌های هوش مصنوعی را دیده‌ام که در فضای آنلاین بدون ذکر پرسش اصلی منتشر می‌شوند. بدون زمینه، معلوم نیست هوش مصنوعی دقیقاً به چه چیزی پاسخ داده است—یا اینکه آیا شخص لحظه‌ای خنده‌دار یا جنجالی را از یک گفتگوی طولانی انتخاب کرده است.

یک گفت‌وگو بین کاربر و ChatGPT

اسکرین‌شات بالا را در نظر بگیرید که فقط یک بخش از گفت‌وگو را نشان می‌دهد و به‌گونه‌ای بریده شده که بقیه رابط کاربری دیده نشود. در نگاه اول، به‌نظر می‌رسد که هوش مصنوعی به‌تنهایی چیزی عجیب گفت، در حالی که در واقعیتی شما هیچ‌اطلاعی از سؤال پیشین‌ شخص ندارید. این یک روش کتاب درسی برای حذف زمینه و نشان دادن ربات به‌عنوان هوشمندتر یا کمتر هوشمند نسبت به واقعیت است.

این مسأله‌ای واقعی می‌شود هنگامی که اسکرین‌شات حاوی اطلاعات گمراه‌کننده باشد. همچنین نشان می‌دهد که برخی افراد بیشتر به خلق محتوای ویروسی اهمیت می‌دهند تا استفاده مسئولانه. اگر می‌خواهید پاسخ‌های هوش مصنوعی را به اشتراک بگذارید، حداقل باید تمام گفت‌وگو را نشان دهید. در غیر این صورت، فقط با نیمی از داستان افراد را دستکاری می‌کنید.

2 رفتار با هوش مصنوعی به‌عنوان غیرقابل خطا

سپس افرادی وجود دارند که باور دارند چون پاسخ ربات چت با اطمینان بیان می‌شود، حتماً درست است. به همین دلیل افراد هوش مصنوعی را در حوزه‌های جدی استناد می‌کنند بدون اینکه چیزی را تأیید کنند. آن‌ها می‌گویند «خب، ربات چت به من گفت این درست است»، انگار این به‌طور خودکار درست باشد.

واقعیت این است که ربات‌های چت هوش مصنوعی مستعد «هالوسینیشن‌ها» هستند. به زبان ساده، این به این معنی است که آن‌ها می‌توانند چیزهایی را بسازند، مانند آماری که وجود ندارند، نقل‌قول‌هایی که هیچ‌کس نگفته و حتی تمام رویدادهای تاریخی که هرگز رخ نداده‌اند. آن‌ها می‌توانند این داستان‌ها را با چنین اطمینانی ارائه دهند که اگر شما آن را تأیید نکنید، خطر دارد به شایعات بیفزایید و اعتبار خود را در این فرآیند خراب کنید.

ما این را در چند مورد دیده‌ایم که ربات‌های چت هوش مصنوعی به‌طور وحشیانه هالوسینیشن کردند در موقعیت‌های مهم. به عنوان مثال، در یک مورد به‌ویژه مشکل‌دار، وکیل نیویورک، استیون شوارتز، برای تحقیق حقوقی به ChatGPT اعتماد کرد. ربات چت با اطمینان فهرستی از مراجع پرونده‌های جعلی به او داد، در حالی که هیچ‌یک از آن‌ها وجود نداشت. او این موارد را در یک پرونده واقعی استناد کرد و، خوب، بگذارید بگوییم نتیجهٔ خوبی برای او درنهایت نشد.

مطلب مرتبط:   چگونه با استفاده از Soundful موسیقی بدون حق امتیاز تولید کنیم

فقط به این دلیل که از یک هوش مصنوعی آمده است، به این معنا نیست که قابل اعتمادتر از چیزی باشد که در یک کافی‌شاپ شنیده‌اید. هنوز هم باید حقیقت‌سنجی کنید. همیشه.

1 استفاده از هوش مصنوعی به‌عنوان موتور جستجو

گوگل وجود دارد. بینگ وجود دارد. حتی یاهو هم به‌صورت ضعیف در گوشه‌ای از اینترنت حضور دارد. اما به‌جای نوشتن چند کلمه در قسمت جستجو، مردم ربات‌های چت هوش مصنوعی را گویی جایگزین مستقیم یک موتور جستجوی واقعی می‌دانند. و این کار به دلایل زیادی نباید انجام شود.

سؤال درباره مدل GPT-4o چت‌جی‌پی‌تی

بزرگ‌ترین مشکل برای من این است که حتی با اضافه شدن قابلیت مرور وب به بیشتر ربات‌های چت، آن‌ها دقیقاً برای دقت لحظه‌ای ساخته نشده‌اند. اگر درباره اخبار فوری، وضعیت فعلی بازار سهام یا این که آیا در ساعت آینده نیاز به چتر خواهید داشت سؤال کنید، هوش مصنوعی ممکن است سعی کند با تظاهر به دانستن پاسخ بدهد. همان‌طور که پیش‌تر گفتم، این فناوری در پر کردن خلاها با ناطقی متمرکز و خوش‌قالب عالی است؛ که می‌تواند در برخی موارد خنده‌آور باشد اما اگر مخاطره بالا باشد خطرناک است.

بنابراین اگر به حقایق سرد و صریح و به‌روز نیاز دارید، روی بداهه‌پردازی ربات چت شرط نگذارید. این همان کاری است که موتورهای جستجو هنوز برای آن وجود دارند.

اگر واقعاً می‌خواهیم بهترین بهره را از هوش مصنوعی بگیریم، باید با قضاوتی هوشمندانه به آن نزدیک شویم. این به معنای شناخت نقاط قوت و ضعف آن، دوبار بررسی «حقایق» ارائه‌شده توسط آن و مقاومت در برابر وسوسهٔ رفتار با آن به‌عنوان چیزی که نیست، است. در غیر این صورت، فقط فناوری را به‌نادرست استفاده نمی‌کنیم بلکه ثابت می‌کنیم مشکل واقعی هوش مصنوعی نیست؛ خودمان هستیم.