هوش مصنوعی پتانسیل باورنکردنی دارد، اما نقاط ضعف خود را نیز دارد.
پیشرفتهای اخیر در زبان، مدلهای تبدیل متن به تصویر و متن به ویدئو، هوش مصنوعی را قادر میسازد تا خروجی فوقالعاده واقعی تولید کند. حتی بسیاری آنها را با محتوای ارگانیک و انسانی اشتباه می گیرند.
اگرچه این شاهکار نشان دهنده یک نقطه عطف تکنولوژیک است، اما مرز بین واقعیت و خیال را نیز محو می کند. تصاویر، متن و ویدیوهای هوش مصنوعی محتوای دیجیتالی تولید می کنند که تجربیات معتبر را تحت الشعاع قرار می دهد. در اینجا روش هایی وجود دارد که هوش مصنوعی توهم واقعیت را ایجاد می کند.
1. برخی با شخصیت های تولید شده توسط هوش مصنوعی به عنوان افراد واقعی رفتار می کنند
اپلیکیشنهای دوست دختر/دوست پسر مجازی هوش مصنوعی بیش از هر زمان دیگری واقعیتر میشوند. آنها روابط عاشقانه را از طریق پرسونای تولید شده توسط هوش مصنوعی شبیه سازی می کنند، که کاربران می توانند آنها را مطابق با ترجیحات خود سفارشی کنند. برخی شخصیت های شبیه به انسان را با ویژگی های پیچیده ترجیح می دهند، در حالی که برخی دیگر شخصیت های خیالی را تکرار می کنند.
بیشتر مردم از شبیه سازهای دوستیابی برای کنار آمدن با تنهایی استفاده می کنند. برنامههایی که روی پردازش زبان طبیعی مدرن (NLP) و مدلهای زبان بزرگ (LLM) اجرا میشوند، مکالمات واقعی انسان را تقلید میکنند. بنابراین کاربران احساس می کنند با این شرکای هوش مصنوعی “ارتباط” می کنند.
از قضا، برنامه های دوست دختر و دوست پسر هوش مصنوعی با تداوم باورهای سمی در مورد روابط بین فردی، انزوای اجتماعی را بدتر می کند. کاربران شرکایی می خواهند که به شخصیت های ساخته شده هوش مصنوعی آنها عمل کنند. برخی حتی تا آنجا پیش می روند که با همراهان خود که توسط هوش مصنوعی تولید می شوند ازدواج می کنند و به طور کلی از روابط انسانی دست می کشند.
2. چت ربات ها پشتیبانی عاطفی جعلی را ارائه می دهند
استفاده از چت ربات های هوش مصنوعی برای روان درمانی رایج است. پلتفرمهای هوش مصنوعی توصیههای مربوط به سلامت روان را از مجموعه دادههای خود حذف میکنند و از طریق LLM از گفتار انسانمانند تقلید میکنند. خروجی آنها خنثی و عمومی است، اما بسیاری از آنها به جای پرداخت هزینه برای جلسات روان درمانی، ابزارهای هوش مصنوعی را بررسی می کنند.
جدای از قابلیت دسترسی هوش مصنوعی، برخی افراد ترجیح میدهند به الگوریتمهای بدون قضاوت و بیطرف اعتماد کنند. آنها احساس ناراحتی می کنند که در مورد مشکلات خود به شخص دیگری اعتماد کنند. فقط به این دلیل که با یک متخصص دارای مجوز صحبت می کنید به این معنی نیست که موانع ارتباطی ایجاد نمی شوند.
همانطور که گفته شد، درمان چت ربات های هوش مصنوعی مانند درمانگر خطرناک است. هوش مصنوعی نمی تواند با شما همدردی کند یا موقعیت شما را درک کند – از NLP برای درک ورودی استفاده می کند و خروجی مربوطه را بر اساس مجموعه داده های خود ارائه می دهد. در صورت نیاز به مشاوره سلامت روان، لطفاً به یک درمانگر یا روانپزشک دارای مجوز مراجعه کنید.
3. کاربران صداها را از طریق سنتز گفتار تقلید می کنند
پیشرفتها در مدلهای تبدیل متن به گفتار و گفتار به گفتار منجر به ظهور تولیدکنندههای صدای هوش مصنوعی مقرونبهصرفه و قابل دسترس شد. آنها خروجی گفتاری با صدای طبیعی تولید می کنند. بسته به کیفیت ورودی و پیچیدگی مدل، هر کسی میتواند صدای شخص دیگری را با دقت شبیهسازی کند.
توسعه دهندگان اغلب از مولدهای صوتی هوش مصنوعی برای ترکیب صداهای ویدیویی، اضافه کردن عملکردهای گفتاری به کاراکترهای مجازی یا برنامه ریزی برنامه های فعال با صدا استفاده می کنند. آنها ارزان تر از ضبط از ابتدا هستند. به همین ترتیب، برخی از افراد از تولید کننده های صدا برای مسخره کردن شخصیت ها و تقلید از آنها استفاده می کنند. احتمالاً کاور آهنگ های جعلی را دیده اید که به صورت آنلاین گرد می آیند.
اما خطرات امنیتی تولیدکنندگان صدای هوش مصنوعی را دست کم نگیرید – کلاهبرداران از این ابزارها برای انتشار اطلاعات نادرست و اجرای حملات مهندسی اجتماعی سوء استفاده می کنند. حتی افراد متبحر در زمینه فناوری نیز در صورت بی دقتی ممکن است به سراغ صداهای ترکیب شده با هوش مصنوعی شوند.
4. ابزارهای تولید تصویر و ویدیو، هویت های کاملاً جدیدی ایجاد می کنند
تکثیر تولیدکنندههای صدا، تصویر و متن مبتنی بر هوش مصنوعی به کاربران امکان میدهد یک شخصیت کاملاً جدید را به صورت آنلاین ایجاد کنند. برای مثال اینفلوئنسرهای مجازی را در نظر بگیرید. بسیاری از آواتارهای تولید شده با هوش مصنوعی ویژگیهای فوقالعاده واقعی و واقعی دارند – آنها میتوانند به عنوان انسان از بین بروند.
در حالی که ایجاد آواتارهای واقع گرایانه جامعه را بسیار به متاورس نزدیک می کند، همچنین به کلاهبرداران کمک می کند تا حملات پیچیده تری انجام دهند. آنها پرسونای جعلی برای سرقت هویت و کلاهبرداری های دوستیابی آنلاین ایجاد می کنند. و هنگامی که کلاهبرداران این فناوری های پیشرفته را با دستکاری روانی ترکیب می کنند، طیف وسیع تری از قربانیان را فریب می دهند.
بدتر این است که برخی از قربانیان در این توهم فرو می روند که می توانند با شخصیت های هوش مصنوعی ارتباط واقعی برقرار کنند. میل به همراهی بهترین آنها را می گیرد. آنها تصمیم می گیرند این واقعیت را نادیده بگیرند که غریبه هایی که این شخصیت ها را اداره می کنند نمی توانند کمتر به آنها اهمیت دهند.
5. محتوای هوش مصنوعی SERP ها را سیل می کند
چت ربات های هوش مصنوعی به طور قابل توجهی بر صنعت محتوا تأثیر گذاشتند. نویسندگان فردی، آژانسهای بازاریابی، کارخانههای تولید محتوا و حتی نشریات قانونی در حال بررسی راههایی برای تسریع روند نوشتن با هوش مصنوعی هستند. از این گذشته، LLM های پیشرفته می توانند یک قطعه 500 کلمه ای را در کمتر از 15 ثانیه تولید کنند.
چندین راه اخلاقی برای نویسندگان برای استفاده از هوش مصنوعی وجود دارد – مشکل این است که بیشتر سازندگان میخواهند محتوا را به سرعت تولید کنند. وسواس در سرعت به کیفیت آسیب می رساند. هوش مصنوعی اطلاعات را از مجموعه دادههای آموزشی خود میخرد. حقایق را بررسی نمی کند یا منابع را مقایسه نمی کند. خروجی حاصل اغلب غیر اصلی و گمراه کننده است.
بدتر از همه، بسیاری از مقالات هوش مصنوعی کم تلاش هنوز از طریق تکنیک های پیشرفته SEO رتبه بالایی دارند. اکثر آنها حتی متوجه نمی شوند که کدام نتایج گوگل توسط هوش مصنوعی تولید شده است. آنها ممکن است بدون اینکه متوجه شوند اطلاعات گمراه کننده و نادرست را می خوانند و به آنها استناد می کنند.
6. دیپ فیک ها شهرت را از بین می برند
مدلهای مولد مبتنی بر هوش مصنوعی میتوانند ویژگیها، صداها و رفتار دیگران را از طریق رسانههای دستکاری شده دیجیتال تقلید کنند. ویدیوی TikTok زیر را با «تام کروز» تماشا کنید. اگر اکانت صریحاً اعلام نکرده باشد که یک ویدیوی عمیق جعلی است، میلیونها نفر باور خواهند کرد که این یک معامله واقعی است.
اما همه به اندازه آنها صادق نیستند. کلاهبرداران از ویدیوهای دیپفیک برای انتشار محتوای گمراهکننده، مضر و وسوسهانگیز جنسی سوء استفاده میکنند. آنها می توانند تقریباً هر کلیپی را با مهارت ها و ابزارهای لازم ویرایش بسازند.
7. تجربه VR/AR همهجانبه حواس شما را منحرف می کند
مدلهای هوش مصنوعی، فناوریهای واقعیت مجازی (VR) و واقعیت افزوده (AR) را قادر میسازند تا تجربهای فراگیرتر ارائه دهند. خروجی بیش از حد واقع گرایانه آنها حواس را کاملا تحریک می کند. و همانطور که دستگاه های VR/AR پیشرفته توسعه می یابند، نشانه های شنیداری، بصری و لمسی استاندارد آنها نیز بهبود می یابد.
اگرچه بسیار جذاب است، غوطه ور شدن بیش از حد در واقعیت گسترده حواس طبیعی شما را مخدوش می کند. پلتفرم های VR/AR شما را از محیط ملموستان جدا می کنند. قرار گرفتن بیش از حد در معرض محرک های حسی مصنوعی، جداسازی واقعیت از شبیه سازی را دشوارتر می کند.
برخی از کاربران حتی به واقعیت های گسترده وابستگی بیش از حد پیدا می کنند. آنها بهجای مواجهه با دنیای واقعی، به شبیهسازیهای سفارشیشده با خواستهها، خواستهها و ترجیحات خود منتقل میشوند.
استفاده از دستگاههای VR/AR برای مدتهای طولانی دارای خطرات متعددی از جمله خستگی چشم، انزوای اجتماعی و حساسیت به حملات سایبری است.
8. سیستم های تجاری هوش مصنوعی انتظارات سود غیر واقعی ایجاد می کنند
هوش مصنوعی در حال تغییر روشی است که شرکت ها در بخش های مختلف فعالیت می کنند. فاکس گزارش می دهد که 90 درصد از مشاغل کوچک قبلاً چت ربات های هوش مصنوعی را در جریان کار خود ادغام کرده اند. به همین ترتیب، متخصصان فنآوری ماهر در حال بررسی مدلهای پیشرفتهتر هستند.
بله، کسبوکارها میتوانند بهرهوری را از طریق اتوماسیون هوش مصنوعی افزایش دهند، اما صرفاً تکیه بر این سیستمها خطر افزایش سرمایه را به همراه دارد. سیستم های هوش مصنوعی در مقیاس کامل گران هستند. غواصی در هوش مصنوعی با آمادگی نادرست فقط هزینه های اضافی شما را افزایش می دهد و بازگشت سرمایه را سخت تر می کند.
هوش مصنوعی بلیط طلایی موفقیت نیست. کارآفرینان نادرست باید این باور غلط را کنار بگذارند که جایگزینی کارگران انسانی با هوش مصنوعی باعث افزایش سود می شود. در صورتی که برنامه ریزی صحیح را کنار بگذارید، اتخاذ سیستم های جدید همچنان می تواند منجر به ضرر شود.
ترسیم خط بین فانتزی و واقعیت
با پیشرفت فناوری های هوش مصنوعی، تمایز بین دنیای مجازی و واقعی سخت تر خواهد شد. مدل های پیچیده خروجی واقعی تری تولید می کنند. تنها راه مبارزه با این واقعیتهای دروغین گسترده این است که خودتان هوش مصنوعی را کشف کنید – کارکردها و محدودیتهای آن را مطالعه کنید.
همچنین، همیشه هوش مصنوعی را با شک و تردید نگاه کنید. راه درازی از تف کردن عبارات نامنسجم پیموده است، اما هنوز نمی تواند جایگزین تحقیقات مناسب و قضاوت های بهتر شود. اعتماد کورکورانه به پلتفرم های هوش مصنوعی شما را مستعد اطلاعات نادرست می کند.