خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

3 خطرات و نگرانی های مربوط به حریم خصوصی چت بات که باید درباره آنها بدانید

چه از ChatGPT یا ربات چت دیگر استفاده کنید، باید از تهدیدات احتمالی که حریم خصوصی داده های شما را زیر سوال می برد آگاه باشید.

چت‌بات‌ها سال‌هاست که وجود دارند، اما ظهور مدل‌های زبانی بزرگ، مانند ChatGPT و Google Bard، جان تازه‌ای به صنعت چت‌بات‌ها بخشیده است.

اکنون میلیون‌ها نفر در سراسر جهان از چت‌ربات‌های هوش مصنوعی استفاده می‌کنند، اما اگر می‌خواهید یکی از این ابزارها را امتحان کنید، خطرات و نگرانی‌های مهم حفظ حریم خصوصی وجود دارد که باید به خاطر داشته باشید.

1. جمع آوری داده ها

اکثر مردم از چت بات ها فقط برای سلام کردن استفاده نمی کنند. چت ربات‌های مدرن برای پردازش و پاسخگویی به سؤالات و درخواست‌های پیچیده طراحی شده‌اند و کاربران اغلب اطلاعات زیادی را در درخواست‌های خود گنجانده‌اند. حتی اگر فقط یک سوال ساده بپرسید، واقعاً نمی خواهید آن را فراتر از مکالمه شما بکنید.

با توجه به بخش پشتیبانی OpenAI، می‌توانید گزارش‌های چت ChatGPT را هر زمان که بخواهید حذف کنید و آن لاگ‌ها پس از 30 روز برای همیشه از سیستم‌های OpenAI حذف می‌شوند. با این حال، اگر گزارش‌های چت خاصی به دلیل محتوای مضر یا نامناسب پرچم‌گذاری شده باشند، شرکت حفظ و بررسی می‌کند.

یکی دیگر از چت‌بات‌های محبوب هوش مصنوعی، کلود، مکالمات قبلی شما را نیز پیگیری می‌کند. مرکز پشتیبانی آنتروپیک بیان می‌کند که کلود «اعلان‌ها و خروجی‌های شما را در محصول ردیابی می‌کند تا در طول زمان، مطابق با کنترل‌های شما، تجربه محصول ثابتی را در اختیار شما قرار دهد». می‌توانید مکالمات خود را با کلود حذف کنید، بنابراین آنچه را که در مورد آن صحبت کرده‌اید فراموش می‌کند، اما این بدان معنا نیست که Anthropic فوراً گزارش‌های شما را از سیستم‌های خود حذف می‌کند.

البته این سوال پیش می‌آید: آیا داده‌های من نگهداری می‌شوند یا خیر؟ آیا ChatGPT یا سایر ربات های چت از داده های من استفاده می کنند؟

اما نگرانی ها به اینجا ختم نمی شود.

ChatGPT چگونه یاد می گیرد؟

به منظور ارائه اطلاعات، مدل های زبان بزرگ با حجم عظیمی از داده ها آموزش داده می شوند. بر اساس گزارش Science Focus، ChatGPT-4 به تنهایی در طول دوره آموزشی خود 300 میلیارد کلمه اطلاعات را تغذیه کرد. این مستقیماً از چند دایره المعارف گرفته نشده است. در عوض، توسعه دهندگان چت بات از انبوه اطلاعات از اینترنت برای آموزش مدل های خود استفاده می کنند. این می تواند شامل داده های کتاب ها، فیلم ها، مقالات، مدخل های ویکی پدیا، پست های وبلاگ، نظرات و حتی سایت های بررسی باشد.

مطلب مرتبط:   چگونه امنیت ویندوز 11 خود را تقویت کنیم

به خاطر داشته باشید که بسته به خط مشی حفظ حریم خصوصی توسعه دهندگان چت بات، برخی از منابع ذکر شده ممکن است در آموزش استفاده نشوند.

بسیاری از ChatGPT انتقاد کرده اند و ادعا می کنند که از نظر حریم خصوصی چیزی شبیه یک کابوس است که نمی توان به ChatGPT اعتماد کرد. بنابراین، چرا این مورد است؟

اینجاست که همه چیز کمی تار می شود. اگر مستقیماً از ChatGPT-3.5 بپرسید که آیا به بررسی های محصول یا نظرات مقاله دسترسی دارد، یک منفی قطعی دریافت خواهید کرد. همانطور که در اسکرین شات زیر می بینید، GPT-3.5 بیان می کند که در آموزش خود به نظرات مقاله کاربر یا بررسی محصول دسترسی نداشته است.

اسکرین شات مکالمه chatgpt-3.5

بلکه با استفاده از “متن متنوعی از اینترنت، از جمله وب‌سایت‌ها، کتاب‌ها، مقالات و سایر مطالب مکتوب در دسترس عموم تا سپتامبر 2021” آموزش داده شد.

اما آیا در مورد GPT-4 هم همینطور است؟

وقتی از GPT-4 پرسیدیم، به ما گفته شد که «OpenAI از بررسی‌های کاربر خاص، داده‌های شخصی یا نظرات مقاله» در دوره آموزشی ربات چت استفاده نکرده است. علاوه بر این، GPT-4 به ما گفت که پاسخ‌هایش از «الگوهایی در داده‌هایی که [آن] آموزش داده شده است، که عمدتاً شامل کتاب‌ها، مقاله‌ها و متن‌های دیگر از اینترنت است، تولید می‌شود».

وقتی بیشتر بررسی کردیم، GPT-4 ادعا کرد که محتوای رسانه های اجتماعی خاصی ممکن است در واقع در داده های آموزشی آن گنجانده شود، اما سازندگان همیشه ناشناس خواهند ماند. GPT-4 به طور خاص بیان کرد که «حتی اگر محتوای پلتفرم‌هایی مانند Reddit بخشی از داده‌های آموزشی باشد، [آن] به نظرات، پست‌ها یا هر داده‌ای که می‌تواند به یک کاربر جداگانه پیوند داده شود، دسترسی ندارد».

بخش قابل توجه دیگری از پاسخ GPT-4 به شرح زیر است: “OpenAI به صراحت تمام منابع داده استفاده شده را فهرست نکرده است.” البته، فهرست کردن منابعی به ارزش 300 میلیارد کلمه برای OpenAI دشوار خواهد بود، اما این امر فضایی را برای حدس و گمان باقی می گذارد.

در یک مقاله Ars Technica، بیان شد که ChatGPT “اطلاعات شخصی به دست آمده بدون رضایت” را جمع آوری می کند. در همان مقاله، یکپارچگی زمینه‌ای ذکر شد، مفهومی که تنها به استفاده از اطلاعات شخصی در زمینه‌ای که در ابتدا استفاده می‌شد اشاره دارد. اگر ChatGPT این یکپارچگی متنی را نقض کند، داده‌های افراد ممکن است در خطر باشد.

مطلب مرتبط:   آیا ماشین حساب های کالری آنلاین دقیق هستند؟

نکته نگران کننده دیگر در اینجا، انطباق OpenAI با مقررات عمومی حفاظت از داده ها (GDPR) است. این مقرراتی است که توسط اتحادیه اروپا به منظور محافظت از داده های شهروندان اجرا می شود. کشورهای مختلف اروپایی، از جمله ایتالیا و لهستان، تحقیقاتی را در مورد ChatGPT به دلیل نگرانی در مورد رعایت GDPR آغاز کرده اند. حتی برای مدت کوتاهی ChatGPT در ایتالیا به دلیل نگرانی از حفظ حریم خصوصی ممنوع شد.

OpenAI در گذشته به دلیل قوانین هوش مصنوعی برنامه ریزی شده تهدید کرده بود که از اتحادیه اروپا خارج می شود، اما از آن زمان پس گرفته شد.

ChatGPT ممکن است بزرگترین چت ربات هوش مصنوعی امروزی باشد، اما مسائل مربوط به حریم خصوصی ربات چت با این ارائه دهنده شروع و ختم نمی شود. اگر از یک ربات چت سایه دار با خط مشی رازداری ضعیف استفاده می کنید، ممکن است از مکالمات شما سوء استفاده شود یا اطلاعات بسیار حساس در داده های آموزشی آن استفاده شود.

2. سرقت اطلاعات

مانند هر ابزار یا پلتفرم آنلاین، چت بات ها در برابر جرایم سایبری آسیب پذیر هستند. حتی اگر یک چت بات تمام تلاش خود را برای محافظت از کاربران و داده های آنها انجام دهد، همیشه این احتمال وجود دارد که یک هکر زرنگ بتواند به سیستم های داخلی آن نفوذ کند.

اگر یک سرویس چت بات داده شده اطلاعات حساس شما را ذخیره می کرد، مانند جزئیات پرداخت برای اشتراک پریمیوم، داده های تماس یا موارد مشابه، در صورت وقوع حمله سایبری، ممکن است به سرقت رفته و مورد سوء استفاده قرار گیرد.

این امر به ویژه اگر از یک ربات چت با امنیت کمتر استفاده می کنید که توسعه دهندگان آن روی حفاظت امنیتی کافی سرمایه گذاری نکرده اند، صادق است. نه تنها سیستم‌های داخلی شرکت هک می‌شوند، بلکه اگر اکانت شما دارای هشدارهای ورود یا لایه احراز هویت نباشد، این احتمال وجود دارد که در معرض خطر قرار گیرد.

اکنون که چت ربات‌های هوش مصنوعی بسیار محبوب شده‌اند، مجرمان سایبری طبیعتاً به استفاده از این صنعت برای کلاهبرداری‌های خود روی آورده‌اند. وب سایت ها و پلاگین های جعلی ChatGPT از زمانی که چت ربات OpenAI در اواخر سال 2022 وارد جریان اصلی شد، با افرادی که به کلاهبرداری می افتند و اطلاعات شخصی را به بهانه مشروعیت و اعتماد ارائه می دهند، یک مشکل بزرگ بوده اند.

در مارس 2023، MUO در مورد یک افزونه جعلی ChatGPT Chrome گزارش داد که لاگین فیس بوک را سرقت می کند. این افزونه می تواند از یک درب پشتی فیس بوک برای هک کردن حساب های کاربری با مشخصات بالا و سرقت کوکی های کاربران سوء استفاده کند. این فقط یک نمونه از چندین سرویس ChatGPT ساختگی است که برای فریب دادن قربانیان ناآگاه طراحی شده است.

مطلب مرتبط:   احراز هویت چند عاملی چیست؟ چرا باید از آن استفاده کرد؟

3. عفونت بدافزار

گرافیک دیجیتال کد پشت آیکون هک سیستم هشدار دهنده

اگر بدون اینکه متوجه شوید از یک چت ربات سایه دار استفاده می کنید، ممکن است ربات چت را پیدا کنید که لینک هایی به وب سایت های مخرب در اختیار شما قرار می دهد. شاید ربات چت شما را از یک هدیه وسوسه انگیز آگاه کرده باشد یا منبعی برای یکی از اظهارات خود ارائه کرده باشد. اگر اپراتورهای سرویس نیت غیرقانونی داشته باشند، تمام هدف پلتفرم ممکن است گسترش بدافزار و کلاهبرداری از طریق پیوندهای مخرب باشد.

از طرف دیگر، هکرها ممکن است یک سرویس چت بات قانونی را به خطر بیاندازند و از آن برای انتشار بدافزار استفاده کنند. اگر این ربات چت خیلی مردم باشد، هزاران یا حتی میلیون ها کاربر در معرض این بدافزار قرار خواهند گرفت. برنامه های جعلی ChatGPT حتی در اپ استور اپل نیز وجود داشته است، بنابراین بهتر است با دقت قدم بردارید.

به طور کلی، هرگز نباید روی پیوندهایی که یک چت بات ارائه می کند، قبل از اجرای آن از طریق یک وب سایت بررسی پیوند، کلیک کنید. این ممکن است آزاردهنده به نظر برسد، اما همیشه بهتر است مطمئن شوید که سایتی که به آن هدایت می‌شوید طراحی مخربی ندارد.

علاوه بر این، هرگز نباید افزونه‌ها و افزونه‌های چت بات را بدون تأیید مشروعیت آنها نصب کنید. کمی در اطراف برنامه تحقیق کنید تا ببینید آیا به خوبی بررسی شده است یا خیر، و همچنین توسعه دهنده برنامه را جستجو کنید تا ببینید آیا چیزی مبهم پیدا کرده اید یا خیر.

چت بات ها در برابر مسائل حریم خصوصی غیرقابل نفوذ نیستند

مانند بسیاری از ابزارهای آنلاین امروزی، چت بات ها به دلیل مشکلات احتمالی امنیتی و حریم خصوصی خود بارها مورد انتقاد قرار گرفته اند. خواه ارائه‌دهنده ربات چت در مورد ایمنی کاربر، یا خطرات مداوم حملات سایبری و کلاهبرداری‌ها، گوشه‌ها را کاهش می‌دهد، بسیار مهم است که بدانید سرویس چت بات شما چه چیزی را از شما جمع‌آوری می‌کند و آیا از اقدامات امنیتی کافی استفاده می‌کند یا خیر.