خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

8 روشی که هوش مصنوعی مرز بین واقعیت و فانتزی را محو می کند

هوش مصنوعی پتانسیل باورنکردنی دارد، اما نقاط ضعف خود را نیز دارد.

پیشرفت‌های اخیر در زبان، مدل‌های تبدیل متن به تصویر و متن به ویدئو، هوش مصنوعی را قادر می‌سازد تا خروجی فوق‌العاده واقعی تولید کند. حتی بسیاری آنها را با محتوای ارگانیک و انسانی اشتباه می گیرند.

اگرچه این شاهکار نشان دهنده یک نقطه عطف تکنولوژیک است، اما مرز بین واقعیت و خیال را نیز محو می کند. تصاویر، متن و ویدیوهای هوش مصنوعی محتوای دیجیتالی تولید می کنند که تجربیات معتبر را تحت الشعاع قرار می دهد. در اینجا روش هایی وجود دارد که هوش مصنوعی توهم واقعیت را ایجاد می کند.

1. برخی با شخصیت های تولید شده توسط هوش مصنوعی به عنوان افراد واقعی رفتار می کنند

دوست دختر مجازی تولید شده توسط هوش مصنوعی با ویژگی های آسیایی

اپلیکیشن‌های دوست دختر/دوست پسر مجازی هوش مصنوعی بیش از هر زمان دیگری واقعی‌تر می‌شوند. آنها روابط عاشقانه را از طریق پرسونای تولید شده توسط هوش مصنوعی شبیه سازی می کنند، که کاربران می توانند آنها را مطابق با ترجیحات خود سفارشی کنند. برخی شخصیت های شبیه به انسان را با ویژگی های پیچیده ترجیح می دهند، در حالی که برخی دیگر شخصیت های خیالی را تکرار می کنند.

بیشتر مردم از شبیه سازهای دوستیابی برای کنار آمدن با تنهایی استفاده می کنند. برنامه‌هایی که روی پردازش زبان طبیعی مدرن (NLP) و مدل‌های زبان بزرگ (LLM) اجرا می‌شوند، مکالمات واقعی انسان را تقلید می‌کنند. بنابراین کاربران احساس می کنند با این شرکای هوش مصنوعی “ارتباط” می کنند.

از قضا، برنامه های دوست دختر و دوست پسر هوش مصنوعی با تداوم باورهای سمی در مورد روابط بین فردی، انزوای اجتماعی را بدتر می کند. کاربران شرکایی می خواهند که به شخصیت های ساخته شده هوش مصنوعی آنها عمل کنند. برخی حتی تا آنجا پیش می روند که با همراهان خود که توسط هوش مصنوعی تولید می شوند ازدواج می کنند و به طور کلی از روابط انسانی دست می کشند.

2. چت ربات ها پشتیبانی عاطفی جعلی را ارائه می دهند

استفاده از چت ربات های هوش مصنوعی برای روان درمانی رایج است. پلتفرم‌های هوش مصنوعی توصیه‌های مربوط به سلامت روان را از مجموعه داده‌های خود حذف می‌کنند و از طریق LLM از گفتار انسان‌مانند تقلید می‌کنند. خروجی آنها خنثی و عمومی است، اما بسیاری از آنها به جای پرداخت هزینه برای جلسات روان درمانی، ابزارهای هوش مصنوعی را بررسی می کنند.

جدای از قابلیت دسترسی هوش مصنوعی، برخی افراد ترجیح می‌دهند به الگوریتم‌های بدون قضاوت و بی‌طرف اعتماد کنند. آنها احساس ناراحتی می کنند که در مورد مشکلات خود به شخص دیگری اعتماد کنند. فقط به این دلیل که با یک متخصص دارای مجوز صحبت می کنید به این معنی نیست که موانع ارتباطی ایجاد نمی شوند.

مطلب مرتبط:   چگونه با ChatGPT بر استرس غلبه کنیم

همانطور که گفته شد، درمان چت ربات های هوش مصنوعی مانند درمانگر خطرناک است. هوش مصنوعی نمی تواند با شما همدردی کند یا موقعیت شما را درک کند – از NLP برای درک ورودی استفاده می کند و خروجی مربوطه را بر اساس مجموعه داده های خود ارائه می دهد. در صورت نیاز به مشاوره سلامت روان، لطفاً به یک درمانگر یا روانپزشک دارای مجوز مراجعه کنید.

3. کاربران صداها را از طریق سنتز گفتار تقلید می کنند

پیشرفت‌ها در مدل‌های تبدیل متن به گفتار و گفتار به گفتار منجر به ظهور تولیدکننده‌های صدای هوش مصنوعی مقرون‌به‌صرفه و قابل دسترس شد. آنها خروجی گفتاری با صدای طبیعی تولید می کنند. بسته به کیفیت ورودی و پیچیدگی مدل، هر کسی می‌تواند صدای شخص دیگری را با دقت شبیه‌سازی کند.

توسعه دهندگان اغلب از مولدهای صوتی هوش مصنوعی برای ترکیب صداهای ویدیویی، اضافه کردن عملکردهای گفتاری به کاراکترهای مجازی یا برنامه ریزی برنامه های فعال با صدا استفاده می کنند. آنها ارزان تر از ضبط از ابتدا هستند. به همین ترتیب، برخی از افراد از تولید کننده های صدا برای مسخره کردن شخصیت ها و تقلید از آنها استفاده می کنند. احتمالاً کاور آهنگ های جعلی را دیده اید که به صورت آنلاین گرد می آیند.

اما خطرات امنیتی تولیدکنندگان صدای هوش مصنوعی را دست کم نگیرید – کلاهبرداران از این ابزارها برای انتشار اطلاعات نادرست و اجرای حملات مهندسی اجتماعی سوء استفاده می کنند. حتی افراد متبحر در زمینه فناوری نیز در صورت بی دقتی ممکن است به سراغ صداهای ترکیب شده با هوش مصنوعی شوند.

4. ابزارهای تولید تصویر و ویدیو، هویت های کاملاً جدیدی ایجاد می کنند

تکثیر تولیدکننده‌های صدا، تصویر و متن مبتنی بر هوش مصنوعی به کاربران امکان می‌دهد یک شخصیت کاملاً جدید را به صورت آنلاین ایجاد کنند. برای مثال اینفلوئنسرهای مجازی را در نظر بگیرید. بسیاری از آواتارهای تولید شده با هوش مصنوعی ویژگی‌های فوق‌العاده واقعی و واقعی دارند – آنها می‌توانند به عنوان انسان از بین بروند.

در حالی که ایجاد آواتارهای واقع گرایانه جامعه را بسیار به متاورس نزدیک می کند، همچنین به کلاهبرداران کمک می کند تا حملات پیچیده تری انجام دهند. آنها پرسونای جعلی برای سرقت هویت و کلاهبرداری های دوستیابی آنلاین ایجاد می کنند. و هنگامی که کلاهبرداران این فناوری های پیشرفته را با دستکاری روانی ترکیب می کنند، طیف وسیع تری از قربانیان را فریب می دهند.

مطلب مرتبط:   چگونه همه عکس های شاترفلای خود را به صورت انبوه دانلود کنیم

بدتر این است که برخی از قربانیان در این توهم فرو می روند که می توانند با شخصیت های هوش مصنوعی ارتباط واقعی برقرار کنند. میل به همراهی بهترین آنها را می گیرد. آنها تصمیم می گیرند این واقعیت را نادیده بگیرند که غریبه هایی که این شخصیت ها را اداره می کنند نمی توانند کمتر به آنها اهمیت دهند.

5. محتوای هوش مصنوعی SERP ها را سیل می کند

نوار جستجوی خالی در گوگل آنلاین

چت ربات های هوش مصنوعی به طور قابل توجهی بر صنعت محتوا تأثیر گذاشتند. نویسندگان فردی، آژانس‌های بازاریابی، کارخانه‌های تولید محتوا و حتی نشریات قانونی در حال بررسی راه‌هایی برای تسریع روند نوشتن با هوش مصنوعی هستند. از این گذشته، LLM های پیشرفته می توانند یک قطعه 500 کلمه ای را در کمتر از 15 ثانیه تولید کنند.

چندین راه اخلاقی برای نویسندگان برای استفاده از هوش مصنوعی وجود دارد – مشکل این است که بیشتر سازندگان می‌خواهند محتوا را به سرعت تولید کنند. وسواس در سرعت به کیفیت آسیب می رساند. هوش مصنوعی اطلاعات را از مجموعه داده‌های آموزشی خود می‌خرد. حقایق را بررسی نمی کند یا منابع را مقایسه نمی کند. خروجی حاصل اغلب غیر اصلی و گمراه کننده است.

بدتر از همه، بسیاری از مقالات هوش مصنوعی کم تلاش هنوز از طریق تکنیک های پیشرفته SEO رتبه بالایی دارند. اکثر آنها حتی متوجه نمی شوند که کدام نتایج گوگل توسط هوش مصنوعی تولید شده است. آنها ممکن است بدون اینکه متوجه شوند اطلاعات گمراه کننده و نادرست را می خوانند و به آنها استناد می کنند.

6. دیپ فیک ها شهرت را از بین می برند

مدل‌های مولد مبتنی بر هوش مصنوعی می‌توانند ویژگی‌ها، صداها و رفتار دیگران را از طریق رسانه‌های دستکاری شده دیجیتال تقلید کنند. ویدیوی TikTok زیر را با «تام کروز» تماشا کنید. اگر اکانت صریحاً اعلام نکرده باشد که یک ویدیوی عمیق جعلی است، میلیون‌ها نفر باور خواهند کرد که این یک معامله واقعی است.

اما همه به اندازه آنها صادق نیستند. کلاهبرداران از ویدیوهای دیپ‌فیک برای انتشار محتوای گمراه‌کننده، مضر و وسوسه‌انگیز جنسی سوء استفاده می‌کنند. آنها می توانند تقریباً هر کلیپی را با مهارت ها و ابزارهای لازم ویرایش بسازند.

7. تجربه VR/AR همهجانبه حواس شما را منحرف می کند

شخص در حالی که در رختخواب است بدون توقف روی تلفن حرکت می کند

مدل‌های هوش مصنوعی، فناوری‌های واقعیت مجازی (VR) و واقعیت افزوده (AR) را قادر می‌سازند تا تجربه‌ای فراگیرتر ارائه دهند. خروجی بیش از حد واقع گرایانه آنها حواس را کاملا تحریک می کند. و همانطور که دستگاه های VR/AR پیشرفته توسعه می یابند، نشانه های شنیداری، بصری و لمسی استاندارد آنها نیز بهبود می یابد.

مطلب مرتبط:   آیا برنامه های ChatGPT شخص ثالث و افزونه های مرورگر ایمن هستند؟

اگرچه بسیار جذاب است، غوطه ور شدن بیش از حد در واقعیت گسترده حواس طبیعی شما را مخدوش می کند. پلتفرم های VR/AR شما را از محیط ملموستان جدا می کنند. قرار گرفتن بیش از حد در معرض محرک های حسی مصنوعی، جداسازی واقعیت از شبیه سازی را دشوارتر می کند.

برخی از کاربران حتی به واقعیت های گسترده وابستگی بیش از حد پیدا می کنند. آن‌ها به‌جای مواجهه با دنیای واقعی، به شبیه‌سازی‌های سفارشی‌شده با خواسته‌ها، خواسته‌ها و ترجیحات خود منتقل می‌شوند.

استفاده از دستگاه‌های VR/AR برای مدت‌های طولانی دارای خطرات متعددی از جمله خستگی چشم، انزوای اجتماعی و حساسیت به حملات سایبری است.

8. سیستم های تجاری هوش مصنوعی انتظارات سود غیر واقعی ایجاد می کنند

هوش مصنوعی در حال تغییر روشی است که شرکت ها در بخش های مختلف فعالیت می کنند. فاکس گزارش می دهد که 90 درصد از مشاغل کوچک قبلاً چت ربات های هوش مصنوعی را در جریان کار خود ادغام کرده اند. به همین ترتیب، متخصصان فن‌آوری ماهر در حال بررسی مدل‌های پیشرفته‌تر هستند.

بله، کسب‌وکارها می‌توانند بهره‌وری را از طریق اتوماسیون هوش مصنوعی افزایش دهند، اما صرفاً تکیه بر این سیستم‌ها خطر افزایش سرمایه را به همراه دارد. سیستم های هوش مصنوعی در مقیاس کامل گران هستند. غواصی در هوش مصنوعی با آمادگی نادرست فقط هزینه های اضافی شما را افزایش می دهد و بازگشت سرمایه را سخت تر می کند.

هوش مصنوعی بلیط طلایی موفقیت نیست. کارآفرینان نادرست باید این باور غلط را کنار بگذارند که جایگزینی کارگران انسانی با هوش مصنوعی باعث افزایش سود می شود. در صورتی که برنامه ریزی صحیح را کنار بگذارید، اتخاذ سیستم های جدید همچنان می تواند منجر به ضرر شود.

ترسیم خط بین فانتزی و واقعیت

با پیشرفت فناوری های هوش مصنوعی، تمایز بین دنیای مجازی و واقعی سخت تر خواهد شد. مدل های پیچیده خروجی واقعی تری تولید می کنند. تنها راه مبارزه با این واقعیت‌های دروغین گسترده این است که خودتان هوش مصنوعی را کشف کنید – کارکردها و محدودیت‌های آن را مطالعه کنید.

همچنین، همیشه هوش مصنوعی را با شک و تردید نگاه کنید. راه درازی از تف کردن عبارات نامنسجم پیموده است، اما هنوز نمی تواند جایگزین تحقیقات مناسب و قضاوت های بهتر شود. اعتماد کورکورانه به پلتفرم های هوش مصنوعی شما را مستعد اطلاعات نادرست می کند.