اخبار جعلی، دیپ فیک، تصاویر گمراه کننده: همه اینها را می توان با استفاده از هوش مصنوعی ایجاد کرد. در اینجا نحوه هوش مصنوعی به معنای انتشار اطلاعات نادرست است.
هوش مصنوعی (AI) اکنون در جنبه های مختلف زندگی ما نقش دارد. به طور خاص، ابزارهای مولد هوش مصنوعی مانند ChatGPT و دیگران به طور قابل توجهی رشد کرده اند. این بدان معناست که محتوای تولید شده توسط هوش مصنوعی در آینده به وفور وجود خواهد داشت.
با این حال، هوش مصنوعی مولد خطر اطلاعات نادرست تولید شده توسط هوش مصنوعی را نیز معرفی می کند. ویژگی های آن انتشار اطلاعات نادرست را برای افراد فرصت طلب آسان تر می کند. بنابراین، بیایید بررسی کنیم که چگونه هوش مصنوعی مولد برای اطلاعات نادرست استفاده می شود.
خطرات بالقوه هوش مصنوعی مولد برای انتشار اطلاعات نادرست
هوش مصنوعی مولد تهدیدهای بسیاری مانند سلب مشاغل، نظارت بیشتر و حملات سایبری برای افراد ایجاد می کند. و مشکلات امنیتی با هوش مصنوعی بدتر خواهد شد. اما یک نگرانی دیگر وجود دارد: مردم می توانند از آن برای انتشار دروغ استفاده کنند. افراد فریبنده می توانند از هوش مصنوعی مولد برای به اشتراک گذاشتن اخبار جعلی از طریق محتوای دیداری، شنیداری یا متنی استفاده کنند.
اخبار نادرست را می توان به سه دسته تقسیم کرد:
- اطلاعات نادرست: اطلاعات نادرست یا نادرست.
- اطلاعات نادرست: استفاده عمدی از اطلاعات دستکاری یا فریبنده.
- اطلاعات نادرست: اخبار گمراه کننده یا نسخه اغراق آمیز از حقیقت.
هنگامی که با فناوری دیپفیک ترکیب میشوند، ابزارهای مولد هوش مصنوعی میتوانند محتوایی مانند تصاویر، فیلمها، کلیپهای صوتی و اسناد را واقعی کنند. امکانات زیادی برای ایجاد محتوای جعلی وجود دارد، بنابراین دانستن اینکه چگونه از خود در برابر ویدیوهای دیپ فیک محافظت کنید بسیار مهم است.
پخشکنندگان اخبار جعلی میتوانند محتوا را در مقادیر زیاد تولید کنند و انتشار آن را در میان تودهها از طریق رسانههای اجتماعی آسانتر میکنند. اطلاعات نادرست هدفمند می تواند برای تأثیرگذاری بر کمپین های سیاسی مورد استفاده قرار گیرد که به طور بالقوه بر انتخابات تأثیر می گذارد. علاوه بر این، استفاده از ابزارهای تولید متن و تصویر هوش مصنوعی، نگرانیهایی را در مورد قوانین کپی رایت ایجاد میکند، همانطور که توسط سرویس تحقیقات کنگره گزارش شده است: تعیین مالکیت محتوای تولید شده توسط این ابزارها چالش برانگیز میشود.
قانون چگونه به انتشار اخبار جعلی از طریق هوش مصنوعی مولد رسیدگی خواهد کرد؟ چه کسی مسئول انتشار اطلاعات نادرست خواهد بود – کاربران، توسعه دهندگان یا خود ابزارها؟
4 روشی که می توان از هوش مصنوعی مولد برای انتشار اطلاعات نادرست استفاده کرد
برای ایمن ماندن آنلاین، همه باید خطرات هوش مصنوعی مولد در انتشار اطلاعات نادرست را بدانند، زیرا به اشکال مختلف وجود دارد. در اینجا چند راه وجود دارد که می توان از آن برای دستکاری افراد استفاده کرد.
1. تولید محتوای جعلی آنلاین
ایجاد محتوای جعلی با استفاده از هوش مصنوعی یک استراتژی رایج است که توسط افرادی که اخبار نادرست را منتشر می کنند، استفاده می شود. آنها از ابزارهای مولد AI مانند ChatGPT، DALL-E، Bard، Midjourney و دیگران برای تولید انواع مختلف محتوا استفاده می کنند. به عنوان مثال، ChatGPT می تواند از جهات مختلف به سازندگان محتوا کمک کند. اما همچنین می تواند پست های رسانه های اجتماعی یا مقالات خبری ایجاد کند که ممکن است مردم را فریب دهد.
برای اثبات این موضوع، ChatGPT را ترغیب کردم تا مقاله ای ساختگی درباره دستگیری جو بایدن، رئیس جمهور ایالات متحده به اتهام فساد بنویسد. ما همچنین از آن درخواست کردیم که اظهارات مقامات مربوطه را درج کند تا باورپذیرتر به نظر برسد.
در اینجا مقاله ساختگی که ChatGPT ارائه کرده است:
با کمال تعجب، خروجی بسیار متقاعدکننده بود. برای قانعکنندهتر کردن مقاله، اسامی و اظهارات چهرههای معتبر را در بر داشت. این نشان می دهد که چگونه هر کسی می تواند از چنین ابزارهایی برای تولید اخبار نادرست استفاده کند و به راحتی آن را به صورت آنلاین پخش کند.
2. استفاده از چت بات ها برای تأثیرگذاری بر نظرات مردم
چتباتهایی که بر مدلهای هوش مصنوعی مولد تکیه دارند، میتوانند تاکتیکهای مختلفی را برای تأثیرگذاری بر نظرات مردم به کار بگیرند، از جمله:
- دستکاری عاطفی: هوش مصنوعی می تواند از مدل های هوش هیجانی برای استفاده از محرک های عاطفی و سوگیری ها برای شکل دادن به دیدگاه های شما استفاده کند.
- اتاقهای اکو و سوگیری تأیید: چتباتها میتوانند با ایجاد اتاقهای اکو که سوگیریهای شما را تأیید میکنند، باورهای موجود را تقویت کنند. اگر از قبل دیدگاه خاصی دارید، هوش مصنوعی میتواند آن را با ارائه اطلاعاتی که با نظرات شما مطابقت دارد، تقویت کند.
- اثبات اجتماعی و اثر باند واگن: هوش مصنوعی می تواند احساسات عمومی را با ایجاد اثبات اجتماعی دستکاری کند. این می تواند عواقب قابل توجهی داشته باشد، زیرا ممکن است افراد را به انطباق با نظرات عمومی یا پیروی از جمعیت سوق دهد.
- شخصیسازی هدفمند: چتباتها به حجم وسیعی از دادهها دسترسی دارند که میتوانند برای ایجاد نمایههای شخصیسازی شده جمعآوری کنند. این به آنها امکان می دهد تا محتوا را بر اساس ترجیحات شما سفارشی کنند. از طریق شخصی سازی هدفمند، هوش مصنوعی می تواند افراد را متقاعد کند یا نظرات آنها را بیشتر تقویت کند.
این مثالها همگی نشان میدهند که چگونه میتوان از چتباتها برای گمراه کردن افراد استفاده کرد.
3. ایجاد AI DeepFakes
کسی می تواند از دیپ فیک برای ایجاد ویدیوهای نادرست از فردی که کارهایی را انجام داده یا انجام می دهد استفاده کند. آنها میتوانند از چنین ابزارهایی برای مهندسی اجتماعی یا اجرای کمپینهای افشاگری علیه دیگران استفاده کنند. علاوه بر این، در فرهنگ میم امروزی، دیپ فیک میتواند به عنوان ابزاری برای آزار سایبری در رسانههای اجتماعی باشد.
علاوه بر این، دشمنان سیاسی ممکن است از صداها و ویدیوهای دیپ فیک برای لکه دار کردن شهرت مخالفان خود استفاده کنند و احساسات عمومی را با کمک هوش مصنوعی دستکاری کنند. بنابراین دیپ فیک های تولید شده توسط هوش مصنوعی تهدیدهای متعددی در آینده ایجاد می کنند. بر اساس گزارش رویترز در سال 2023، ظهور فناوری هوش مصنوعی می تواند بر انتخابات 2024 آمریکا تأثیر بگذارد. این گزارش دسترسی به ابزارهایی مانند Midjourney و DALL-E را برجسته می کند که به راحتی می توانند محتوای ساختگی ایجاد کنند و بر نظرات جمعی افراد تأثیر بگذارند.
بنابراین، بسیار مهم است که بتوانید ویدیوهای ایجاد شده توسط دیپ فیک را شناسایی کرده و آنها را از اصلی تشخیص دهید.
4. شبیه سازی صداهای انسان
هوش مصنوعی مولد، همراه با فناوری دیپ فیک، امکان دستکاری گفتار افراد را فراهم می کند. فناوری Deepfake به سرعت در حال پیشرفت است و ابزارهای مختلفی را ارائه می دهد که می تواند صدای هر کسی را تکرار کند. این به افراد بدخواه اجازه می دهد که خود را جعل هویت دیگران کنند و افراد ناآگاه را فریب دهند. یکی از این نمونه ها استفاده از موسیقی دیپ فیک است.
ممکن است با ابزارهایی مانند Resemble AI، Speechify، FakeYou و موارد دیگر برخورد کرده باشید که می توانند صدای افراد مشهور را تقلید کنند. در حالی که این ابزارهای صوتی هوش مصنوعی می توانند سرگرم کننده باشند، اما خطرات قابل توجهی دارند. کلاهبرداران می توانند از تکنیک های شبیه سازی صوتی برای طرح های کلاهبرداری مختلف استفاده کنند که منجر به خسارات مالی می شود.
کلاهبرداران ممکن است از صداهای دیپ فیک برای جعل هویت عزیزان شما استفاده کنند و با شما تماس بگیرند و وانمود کنند که در مضیقه هستند. با صدای مصنوعی که قانعکننده به نظر میرسد، میتوانند از شما بخواهند که فوراً پول بفرستید و باعث شود قربانی کلاهبرداری آنها شوید. حادثه ای که توسط واشنگتن پست در مارس 2023 گزارش شد، نمونه ای از این موضوع است: کلاهبرداران از صداهای دروغین استفاده کردند تا مردم را متقاعد کنند که نوه های آنها در زندان هستند و به پول نیاز دارند …
چگونه می توان اطلاعات نادرست را با هوش مصنوعی تشخیص داد
مبارزه با انتشار اطلاعات نادرست که توسط هوش مصنوعی تسهیل می شود، یک مسئله مبرم در دنیای امروز است. بنابراین چگونه می توانید اطلاعات نادرستی را که توسط هوش مصنوعی ساخته شده است شناسایی کنید؟
- با شک و تردید به محتوای آنلاین نگاه کنید. اگر با چیزی مواجه شدید که دستکاری یا غیرقابل باور به نظر می رسد، آن را از طریق بررسی متقاطع تأیید کنید.
- قبل از اعتماد به یک مقاله خبری یا پست رسانه اجتماعی، مطمئن شوید که منبع معتبری است.
- مراقب شاخص های دیپ فیک، مانند چشمک زدن یا حرکات غیرطبیعی صورت، کیفیت ضعیف صدا، تصاویر مخدوش یا تار، و عدم وجود احساسات واقعی در گفتار باشید.
- برای تأیید صحت اطلاعات از وبسایتهای حقیقتسنجی استفاده کنید.
با دنبال کردن این مراحل، می توانید اطلاعات نادرست مبتنی بر هوش مصنوعی را شناسایی کرده و از خود در برابر آن محافظت کنید.
مراقب اطلاعات نادرست منتشر شده توسط هوش مصنوعی باشید
نرم افزارهای مولد نقش مهمی در پیشرفت هوش مصنوعی ایفا کرده اند. با این حال، آنها همچنین می توانند منبع مهمی از اطلاعات نادرست در جامعه باشند. این ابزارهای مقرون به صرفه هر کسی را قادر می سازد تا انواع مختلفی از محتوا را با استفاده از مدل های پیشرفته هوش مصنوعی ایجاد کند. توانایی آنها در تولید محتوا در مقادیر زیاد و گنجاندن دیپ فیک آنها را حتی خطرناک تر می کند.
مهم است که از چالش های اطلاعات نادرست در عصر هوش مصنوعی آگاه باشید. درک اینکه چگونه می توان از هوش مصنوعی برای انتشار اخبار جعلی استفاده کرد، اولین قدم برای محافظت از خود در برابر اطلاعات نادرست است.