هوش مصنوعی مولد مورد استفاده قوی برای رسانه های اجتماعی ندارد. در اینجا دلیل …
لینک های سریع
- اکثر کاربران عادی نمی خواهند از هوش مصنوعی مولد استفاده کنند
- هوش مصنوعی مولد می تواند اصالت را حذف کند
- ابزارهای هوش مصنوعی مولد بهتری وجود دارد
- پیامدهای بالقوه حریم خصوصی
- هوش مصنوعی مولد می تواند اطلاعات نادرست را منتشر کند
- اکثر کاربران نمی دانند چگونه از هوش مصنوعی تولیدی استفاده کنند
نکات کلیدی
- پلتفرم های رسانه های اجتماعی زمان بیشتری را صرف اجرای هوش مصنوعی مولد کرده اند، مانند هوش مصنوعی متا و هوش مصنوعی اسنپ چت.
- علیرغم زمان اضافی که صرف می شود، فکر می کنم هوش مصنوعی مولد در رسانه های اجتماعی کاملاً بی معنی است.
- هوش مصنوعی مولد همچنین میتواند به نگرانیهای مربوط به حریم خصوصی و اطلاعات نادرست احتمالی منجر شود.
هوش مصنوعی مولد در برخی مکانها نسبت به مکانهای دیگر مرتبطتر است. اما یکی از حوزههای شگفتانگیز که به طور فزایندهای رواج دارد، در رسانههای اجتماعی است. از حریم خصوصی گرفته تا علاقه کاربر، به همین دلیل است که فکر نمیکنم پلتفرمهای اجتماعی باید روی هوش مصنوعی مولد تمرکز کنند.
1 اکثر کاربران عادی نمی خواهند از هوش مصنوعی مولد استفاده کنند
اگرچه ChatGPT و Microsoft Copilot هوش مصنوعی مولد را به یک مکالمه اصلی تبدیل کردهاند، فکر نمیکنم بسیاری از مردم بخواهند از آن در رسانههای اجتماعی استفاده کنند. از مکالمه با دوستان و خانواده، افراد معمولاً از این فناوری برای کمک در انجام تکالیف، یافتن پاسخ سؤالات و موارد مشابه استفاده می کنند.
بیایید به عنوان مثال به هوش مصنوعی متا نگاه کنیم. شما می توانید کارهایی مانند آماده شدن برای یک مصاحبه شغلی و ایجاد هنر تولید شده توسط هوش مصنوعی را انجام دهید. من از فیس بوک برای هیچ یک از این موارد استفاده نمی کنم، بنابراین داشتن این ویژگی ها در اینجا کمی بی معنی است.
شما می توانید استدلال کنید که چت بات ها ممکن است مفید باشند، اما من در مورد اینکه چرا این ربات ها ممکن است مشکل ساز باشند بعدا صحبت خواهم کرد.
2 هوش مصنوعی مولد می تواند اصالت را حذف کند
در حالی که رسانه های اجتماعی در مورد اصالت به هیچ وجه کامل نیستند، یک چیز خوب در مورد استفاده از این برنامه ها این است که می توانید خود را در زمان واقعی بیان کنید. به عنوان مثال، زمانی که X (توئیتر) داشتم، از به اشتراک گذاشتن افکارم در زمان بروز و ظهور آنها لذت می بردم.
هوش مصنوعی مولد برای تولید محتوای بهتر رسانه های اجتماعی و از بین بردن خطاهای کپی مفید است. با این حال، یکی از مشکلاتی که می تواند ناشی از ادغام فناوری در پلتفرم های اجتماعی باشد، استفاده نادرست برای شیوه هایی مانند کشاورزی تعامل است. مسئله دیگر این است که هوش مصنوعی می تواند مرز بین واقعیت و خیال را حتی بیشتر از آنچه در رسانه های اجتماعی اتفاق می افتد محو کند.
3 ابزار هوش مصنوعی مولد بهتر وجود دارد
من در گذشته در مورد اینکه چگونه میخواهم پلتفرمهای رسانههای اجتماعی به جای اینکه روی هر گرایش تکنولوژیکی گام بردارند، به خوبی به یک چیز بچسبند، صحبت کردهام. ما شاهد این بودیم که این اتفاق با محتوای ویدئویی کوتاهمدت رخ میدهد، و اکنون با هوش مصنوعی این اتفاق میافتد. اما همانطور که هر شبیهسازی TikTok نمیتواند پیشنهاد اصلی پلتفرم را تقلید کند، شرکتهای رسانههای اجتماعی نیز – به نظر من – نمیتوانند با افرادی مانند ChatGPT رقابت کنند.
اگر برای یافتن پاسخ یا ایجاد تصاویر نیاز به استفاده از هوش مصنوعی مولد داشته باشم، به فیس بوک یا اینستاگرام نمی روم. من یک اشتراک ChatGPT خریدم زیرا فکر میکنم بهترین ابزار موجود در بازار است و همچنان از نسخه رایگان آن بر روی هوش مصنوعی متا یا هر ابزار مشابهی استفاده میکنم.
داشتن هوش مصنوعی مولد ممکن است باعث شود کاربران برای مدت طولانی تری روی پلتفرم ها بمانند، اما فکر نمی کنم این زمان با کیفیتی باشد.
در حالی که نمی توانید هوش مصنوعی متا را غیرفعال کنید، می توانید آن را بی صدا کنید. اگر این کاری است که می خواهید انجام دهید، راهنمای ما را بخوانید
چگونه هوش مصنوعی متا را بی صدا کنیم
.
4 پیامدهای بالقوه حریم خصوصی
نگرانی های مربوط به حریم خصوصی در رسانه های اجتماعی چیز جدیدی نیست و Cambridge Analytica شاید برجسته ترین نمونه باشد. هوش مصنوعی خطرات حفظ حریم خصوصی را نیز دارد و این احتمال وجود دارد که مسائل امنیتی مولد هوش مصنوعی بدتر شود. به عنوان مثال، چت ربات های منبع باز می توانند کدهای باطن را آشکار کنند.
مردم ممکن است در برنامههایی مانند Copilot یا ChatGPT تمایل به استفاده از یک ربات چت هوش مصنوعی مولد داشته باشند، اما رسانههای اجتماعی میتوانند بسیار خطرناکتر احساس کنند. در حالی که برخی از اطلاعات شخصی به چت ربات های هوش مصنوعی در جاهای دیگر مرتبط است، به اندازه رسانه های اجتماعی نیست.
اگر نگران این هستید که چگونه داده های خود را در دنیای کنونی ایمن نگه دارید، نگران نباشید. ما نکاتی در مورد محافظت از حریم خصوصی شما در عصر هوش مصنوعی داریم.
5 هوش مصنوعی مولد می تواند اطلاعات نادرست را منتشر کند
انتخابات ریاست جمهوری 2016 و همه گیری کووید-19 دو نمونه واضح از این هستند که چرا همیشه نباید به رسانه های اجتماعی اعتماد کنید. پلتفرمهایی مانند توییتر و فیسبوک مدتهاست که با اطلاعات نادرست دست و پنجه نرم میکنند و هوش مصنوعی مولد میتواند این مشکل را بدتر کند.
هوش مصنوعی قبلاً برای اطلاعات نادرست گرما دریافت کرده است. در آوریل 2024، Grok AI به دلیل گزارش اشتباه مبنی بر متهم شدن Klay Thompson ستاره NBA به خرابکاری خانه ها مورد انتقاد قرار گرفت.
ما میتوانیم تمام روز در مورد سپردن مسئولیت بررسی واقعیت به عهده کاربران بحث کنیم. اما بیایید در اینجا صادق باشیم: اکثر افراد در رسانه های اجتماعی این کار را انجام نمی دهند. بنابراین، این یک نگرانی قانونی است که پلتفرم های رسانه های اجتماعی باید به آن فکر کنند.
اگر میخواهید در مقابله با محتوای جعلی آنلاین فعالتر باشید، این راهنما را بخوانید
چگونه با اخبار جعلی در شبکه های اجتماعی مقابله کنیم
.
6 اکثر کاربران نمی دانند چگونه از هوش مصنوعی مولد استفاده کنند
با آزمایش ابزارهایی مانند ChatGPT، می توانم به شما اطمینان دهم که هوش مصنوعی مولد به سادگی تایپ کردن یک دستور نیست. شما اغلب نیاز دارید تا با چندین فرمان آزمایش کنید و قبل از اینکه به نتایج مورد نظر خود برسید، وارد جزئیات خاص شوید.
در حالی که بدون شک هوش مصنوعی با گذشت زمان بهتر می شود، اکثر کاربران نمی دانند چگونه از هوش مصنوعی مولد تا حد امکان استفاده کنند. برخی نیز ممکن است احساس کنند سطح تلاشی که انجام میدهند بیشتر از این است که خودشان پست را بنویسند.
هر ایدهای در رسانههای اجتماعی اصلی نیاز به جذب گسترده دارد و اگر کاربران عادی ندانند چگونه از هوش مصنوعی مولد استفاده کنند، این اتفاق نخواهد افتاد.
علیرغم مزایای هوش مصنوعی مولد، من فکر می کنم که پلتفرم های رسانه های اجتماعی تا حد زیادی وقت خود را با تمرکز بیش از حد بر روی آن تلف می کنند. من استدلال می کنم که آنها بهتر است محصولات و پیشنهادات اصلی خود را بهبود بخشند. اگر این شرکتها به دنبال هوش مصنوعی مولد خود ادامه دهند، باید به نحوه مبارزه با اشکالات اصلی نیز فکر کنند.