خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

آیا خلاقان می توانند از کار خود در برابر هوش مصنوعی محافظت کنند؟

آیا واقعاً می توان از هنر اصیل در برابر هوش مصنوعی محافظت کرد؟ خلاق ها به طور فزاینده ای ناتوان به نظر می رسند.

ابزارهای مولد هوش مصنوعی مانند Midjourney و Stable Diffusion در حال تولید تصاویر بصری متقاعدکننده‌ای هستند. با این حال، آن‌ها برای تولید محتوای خود به پایگاه‌های اطلاعاتی وسیعی از کار خلاقان متکی هستند. در این مرحله، ممکن است تعجب کنید که آیا راهی برای محافظت از کار شما در برابر ابزارهای هوش مصنوعی وجود دارد و پاسخ این است: پیچیده است.

ابزارهای هوش مصنوعی مولد چگونه از کار هنرمندان استفاده می کنند؟

ابزارهای هوش مصنوعی مولد از مدل های یادگیری ماشینی استفاده می کنند که برای انجام اقدامات با استفاده از مجموعه داده های بزرگ آموزش دیده اند. فرض کنید در مورد یک تولید کننده تصویر هوش مصنوعی مانند Midjourney صحبت می کنیم. در این مورد، مجموعه داده‌های مورد استفاده برای آموزش شامل میلیاردها جفت تصویر و متن است – از آثار هنرمندان افسانه‌ای مانند پیکاسو گرفته تا خلاقان حرفه‌ای و آماتور.

مولدهای هنر هوش مصنوعی از این جفت‌های رسانه-متن برای تولید محتوای بصری در پاسخ به درخواست‌های متنی کاربر استفاده می‌کنند. اساساً، آن‌ها از آثار هنرمندان موجود استفاده می‌کنند و الگوها را با جفت‌های متنی (پست‌های اجتماعی، زیرنویس‌ها، متن جایگزین، و غیره) مطابقت می‌دهند تا کاربران بتوانند تصاویر جدیدی را از پیام‌هایی مانند «آسمان پرستاره شب به سبک ونسان ون گوگ» یا «صحنه‌ای نئو نوآر از یک کارآگاه در حال نوشیدن ویسکی در شهر 1950» تولید کنند.

چرا بسیاری از هنرمندان ناراحت هستند؟

بزرگترین شکایت از خلاقان این است که ابزارهای هوش مصنوعی مولد بدون اجازه از کار خود استفاده می کنند. آنها به سادگی از کار خود برای آموزش الگوریتم ها نیز استفاده نمی کنند.

بحث بازاریابی در مورد هوش مصنوعی مولد نشان می دهد که این ابزارها محتوای منحصر به فردی ایجاد می کنند، اما اینطور نیست. کاری که آنها واقعاً انجام می‌دهند این است که داده‌ها را از چندین قطعه هنری ترکیب می‌کنند و آن‌ها را با هم ترکیب می‌کنند تا چیزی را تولید کنند که با درخواست کاربر مطابقت داشته باشد.

اصطلاح نسل هوش مصنوعی به خودی خود گمراه کننده است. تکثیر هوش مصنوعی دقیق تر خواهد بود و ترفند این ابزارها این است که حجم زیادی از آثار هنری را تکرار می کنند و آنها را با هم ترکیب می کنند.

تصویری از نسل‌های تصویر هوش مصنوعی Midjourney در Discord

ابزارهای هوش مصنوعی مولد برای جایگزینی خلاقان طراحی شده اند – و آنها این کار را با استفاده از آثار هنری خود انجام می دهند. و، گویی این به اندازه کافی بد نیست، اکثر ابزارهای هوش مصنوعی همه این کارها را بدون درخواست اجازه، ارائه هرگونه غرامت یا حتی اعتبار دادن به سازندگان اصلی انجام می دهند.

مطلب مرتبط:   چگونه از فیشینگ در سرقت NFT استفاده می شود؟

آیا می توانید دسترسی ابزارهای هوش مصنوعی مولد به آثار هنری خود را متوقف کنید؟

متأسفانه، تنها راه برای جلوگیری از دسترسی ابزارهای هوش مصنوعی به هر یک از محتوای شما این است که چیزی به صورت آنلاین منتشر نکنید. ممکن است افراطی به نظر برسد، اما این واقعیت است. مطمئناً، می‌توانید از فایل robots.txt در وب‌سایت خود استفاده کنید تا ابزارهای هوش مصنوعی را از خراشیدن وب‌سایت خود جلوگیری کنید، یا با انصراف از مجموعه داده‌های آموزشی، از تصاویر خود در برابر هوش مصنوعی محافظت کنید، اما این روش‌ها محدودیت‌های متعددی دارند.

اولاً، دستورات موجود در فایل robots.txt توصیه‌ای هستند، به این معنی که سایت‌ها هیچ تعهد قانونی برای پایبندی ندارند. در مرحله دوم، شما باید شرکتی مانند گوگل را از خزیدن در وب سایت خود مسدود کنید، که اساساً خودکشی SEO است. و در نهایت، فایل robots.txt فقط به شما کنترل (محدود) بر دسترسی به وب سایت شما می دهد، هیچ کاری برای محافظت از محتوایی که در جاهای دیگر منتشر می کنید: رسانه های اجتماعی، سرویس های ابری و غیره انجام نمی دهد.

متأسفانه برای خلاقان، چشم انداز قبل از اینکه بهتر شود بدتر می شود.

سیاست حفظ حریم خصوصی گوگل می تواند به این معنی باشد که از تمام محتوای آنلاین برای آموزش الگوریتم های هوش مصنوعی خود استفاده می کند.

در ژوئیه 2023، گوگل سیاست حفظ حریم خصوصی خود را به روز کرد و گفت که از محتوای آنلاین برای آموزش سیستم های هوش مصنوعی خود از جمله براد، گوگل ترنسلیت و سایرین استفاده خواهد کرد. گوگل از عبارت «منابع در دسترس عموم» استفاده می کند. در اینجا نقل قولی است که برخی از زنگ های هشدار را پس از به روز رسانی به صدا درآورد:

برای مثال، ما ممکن است اطلاعاتی را جمع‌آوری کنیم که به صورت آنلاین یا از منابع عمومی دیگر در دسترس است تا به آموزش مدل‌های هوش مصنوعی Google و ساخت محصولات و ویژگی‌هایی مانند قابلیت‌های Google Translate، Bard و Cloud کمک کنیم.» – سیاست حفظ حریم خصوصی Google

به عبارت دیگر، گوگل اکنون می‌گوید که هر چیزی که به صورت آنلاین منتشر می‌کنید قابل قبول است. حداقل، Google با برجسته کردن جدیدترین تغییرات، مقایسه به‌روزرسانی‌ها با خط‌مشی رازداری خود را آسان می‌کند:

مقایسه ای که آخرین تغییرات در سیاست حفظ حریم خصوصی Google را نشان می دهد

همانطور که می بینید، تغییرات در جمله بندی بسیار ظریف است، اما پیامدهای آن قابل توجه است. پیش از این، کارکردهای اصلی مدل‌های زبان گوگل، تفسیر پرسش‌های جستجو و ترجمه متن به زبان‌های دیگر بود.

مطلب مرتبط:   من Premiere Rush Premium را امتحان کردم: آیا ارزش ارتقا دارد؟

اکنون، این شرکت می‌گوید ممکن است از همه منابع در دسترس عموم برای آموزش مجموعه کامل مدل‌های هوش مصنوعی خود استفاده کند. این شامل سیستم هوش مصنوعی مولد آن، Bard، می‌شود و فراتر از مدل‌های زبانی گسترش می‌یابد و همه ابزارها/ویژگی‌های هوش مصنوعی گوگل را در بر می‌گیرد – واضح‌ترین مثال تولید تصویر است.

شبکه های اجتماعی می توانند از هر محتوایی که در پلتفرم های خود منتشر می کنید استفاده کنند

متا همچنین به همه چیزهایی که در فیس بوک، اینستاگرام و Threads منتشر می شود دسترسی نامحدود دارد. اگر قوانین و مقررات را بخوانید، این روش استاندارد برای پلتفرم های اجتماعی است. به محض اینکه شما چیزی را در یک شبکه اجتماعی آپلود می کنید، آنها حق استفاده و استفاده مجدد از آن را به هر شکلی که می خواهند دارند.

بسیاری از کاربران اجتماعی شرکت هایی را یافته اند که از تصاویر خود در تبلیغات بدون اجازه استفاده می کنند، از جمله افراد خلاق. متأسفانه، اگر آن شرکت شبکه اجتماعی باشد که تصویر را در آن آپلود کرده‌اید، شرکت مادر شبکه یا برند دیگری متعلق به همان شرکت مادر، شانس شما را ندارید.

برای اکثر مردم، شانس پلتفرمی مانند اینستاگرام از یکی از تصاویر خود برای یک کمپین تبلیغاتی بسیار کم است. با این حال، متا تقریباً مطمئناً از تصاویر، ویدیوها و پست های شما برای آموزش الگوریتم های هوش مصنوعی خود استفاده می کند.

سرویس‌هایی مانند Adobe ممکن است به کار شما برای آموزش الگوریتم‌هایشان دسترسی داشته باشند و از آنها استفاده کنند

در ژانویه 2023، Adobe برای به روز رسانی T&Cهای خود کمی داغ شد. به نظر می‌رسد این زبان نشان می‌دهد که ادوبی می‌تواند از تصاویر آپلود شده در سرویس‌های ابری خود توسط عکاسان برای آموزش الگوریتم‌های هوش مصنوعی خود استفاده کند.

عبارت مشخص به شرح زیر بود:

“Adobe ممکن است محتوای شما را با استفاده از تکنیک هایی مانند یادگیری ماشینی (مثلاً برای تشخیص الگو) برای توسعه و بهبود محصولات و خدمات خود تجزیه و تحلیل کند.”

بدتر از همه، Adobe به طور خودکار کاربران را به این سیستم تجزیه و تحلیل محتوا انتخاب می کرد، به این معنی که آنها باید به صورت دستی آن را در تنظیمات حساب خود خاموش می کردند. قابل درک است که خلاقان خیلی مهربانانه واکنش نشان ندادند و Adobe با پاسخ ندادن در ابتدا به انتقادات شعله های آتش را شعله ور کرد.

مطلب مرتبط:   شما نمی‌توانید هوش مصنوعی متا را غیرفعال کنید، اما در اینجا نحوه بی‌صدا کردن آن به‌جای آن آمده است

هفته‌ها بعد، ادوبی اعلام کرد که از هیچ داده مشتری برای آموزش ابزارهای هوش مصنوعی تولیدی آن استفاده نمی‌شود. این شرکت این حادثه را یک زنگ بیدارباش خواند و متعهد شد که هر گونه سردرگمی را با مشخص کردن متن سیاست خود برطرف کند.

در هر صورت، این واقعیت باقی می‌ماند که اگر ادوبی بخواهد از داده‌های مشتریان برای آموزش سیستم‌های هوش مصنوعی خود استفاده کند، هیچ‌کس نمی‌تواند در مورد آن انجام دهد – غیر از تحریم. در همان زمان، Adobe داده های خود را برای ابزارهایی مانند Generative Fill از جایی دریافت می کند، بنابراین از کارهای هنرمندان به هر شکلی استفاده می کند.

شرکت‌های فناوری در حال حاضر تقریباً نامحدود به داده‌های شما دسترسی دارند

همانطور که اوضاع پیش می‌رود، غول‌های فناوری مانند گوگل و متا تقریباً نامحدود به داده‌های خلاقان دسترسی دارند. بررسی دقیق در مورد استفاده آنها از داده های کاربر تقریباً به قدمت اینترنت است، با این حال مقررات حفظ حریم خصوصی همچنان در حال پیگیری است.

اجرای دستورالعمل های حفظ حریم خصوصی GDPR از اتحادیه اروپا تا سال 2018 طول کشید و آنها برای محافظت از داده های کاربران کار چندانی انجام نداده اند.

هوش مصنوعی مولد یک میدان مین جدید است که تقریباً هیچ مقرراتی برای محدود کردن اقدامات شرکت های فناوری در این فضا وجود ندارد. در حال حاضر، شرکت‌هایی مانند Google و OpenAI می‌توانند تقریباً هر کاری را که می‌خواهند با داده‌های ما انجام دهند، و این به این زودی‌ها تغییر نخواهد کرد.

در نهایت، برای محافظت از هنرمندان در برابر هوش مصنوعی، شکایت‌ها و مقررات لازم است

تا زمانی که هوش مصنوعی مولد و دسترسی آن به داده‌های کاربر تنظیم نشود، خلاقان تقریباً قادر به متوقف کردن این فناوری نیستند. محتمل ترین سناریو تغییرات در قوانین حق چاپ یا به طور بالقوه، حفاظت از داده های جدید مربوط به مالکیت خلاق است. در هر صورت، زمان زیادی طول می کشد تا شاهد معرفی و اجرای مقررات جدید باشیم.

خط نقره ای برای خلاقان این است که شکایت های حقوقی علیه هوش مصنوعی مولد به سرعت در حال انباشته شدن است و این می تواند پاسخ قانونی را تسریع کند. خبر بد این است که برخی از شرکت‌های فناوری درگیر دارای بودجه قانونی هستند تا این پرونده‌ها را از زمان‌برترین راه‌های رسیدگی قانونی بکشانند.

در این میان، سؤالات اخلاقی بر سر نسل هنر هوش مصنوعی باقی خواهند ماند.