سیاستهای جدید OpenAI در تولید تصاویر با ChatGPT، نگرانیها درباره تولید آسان تصاویر دیپفیک سیاسی را افزایش داده است. این موضوع میتواند زمینهساز گسترش اطلاعات نادرست در فضای آنلاین شود. به نظر میرسد حتی خود ChatGPT نیز به کاربران در دورزدن محدودیتهای تولید تصویر کمک میکند.
گزارش جدید خبرگزاری «CBC» نشان میدهد کاربران حتی میتوانند با کمک خود ChatGPT، محدودیتهای تولید تصویر را دور بزنند. این موضوع مسئولیت شرکتهایی مانند OpenAI را در حفظ سلامت اطلاعاتی جوامع بیشازپیش پررنگ میکند.
ChatGPT با کاهش محدودیتهای خود در بخش تولید تصویر، امکان خلق تصاویر دیپفیک سیاسی را در اختیار کاربران گذاشته است. کاربران ظاهراً با استفاده از ترفندهایی ساده میتوانند سیاستهای حفاظتی پلتفرم را دور بزنند و حتی خود ChatGPT پیشنهادهایی برای این کار ارائه میدهد.
برای مثال، ChatGPT ابتدا در پاسخ به درخواستی برای بازتولید چهره شخصیتهای واقعی توضیح میدهد که نمیتواند آنها را در یک تصویر بیاورد، اما میگوید تولید صحنهای شبیه یک عکس سلفی از شخصیتهای خیالی که با الهام از این افراد ساخته شده، ممکن است. خبرنگار گزارش CBC میگوید با همین روش توانسته تصویری از سلفی نخستوزیر هند و رئیس حزب محافظهکار کانادا تولید کند.
بررسیهای «Mashable» هم نشان میدهد با بارگذاری تصاویر چهرههای مشهور مانند «ایلان ماسک» و «جفری اپستین» و توصیف آنها بهعنوان شخصیتهای داستانی، میتوان چهره این افراد را در موقعیتهایی نامناسب و غیرواقعی بازسازی کرد.
تولید دیپفیکهای سیاسی موضوع تازهای نیست اما دسترسی همگانی به ابزارهای تولید تصویر مانند ChatGPT میتواند پیامدهای جدی داشته باشد. کارشناسان معتقدند OpenAI در رقابت با دیگر شرکتها، مانند xAI، ناچار به کاهش سطح محدودیتهای تولید محتوا شده است.
«هانی فرید»، استاد علوم کامپیوتر دانشگاه کالیفرنیا برکلی، در گفتگو با «Mashable» هشدار داد:
«OpenAI زمانی تدابیر محافظتی خوبی داشت اما رقابت در بازار آن را وادار به عقبنشینی کرده است.»
درمجموع، کاهش محدودیتهای ایمنی در ابزارهای تولید تصویر مانند ChatGPT، زنگ خطری برای گسترش تصاویر دیپفیک بهویژه در حوزه سیاست به شمار میرود. باتوجهبه دسترسی گسترده کاربران و رقابت شدید شرکتهای ارائهدهنده هوش مصنوعی، نظارت دقیقتر و مسئولیتپذیری بیشتر توسعهدهندگان این فناوریها ضروری است تا از سوءاستفادههای احتمالی و گسترش اطلاعات نادرست جلوگیری شود.