ترجمه اختصاصی؛

۹۹٪ قربانیان زن هستند: هشدار در مورد دنیای جدید خشونت جنسی مبتنی بر هوش مصنوعی

در سال‌های اخیر، همگام با پیشرفت غیرقابل پیش‌بینی فناوری، خشونت علیه زنان در سراسر جهان دیگر محدود به عرصه‌های فیزیکی، واقعی یا حتی لفظی نیست. این خشونت به تدریج به فضای دیجیتال کوچ کرده و در آن با قدرت گسترش یافته است.

در واقعیت، آنچه روزی فضایی باز برای ترویج آزادی‌ها و ارتباطات به نظر می‌رسید، اکنون به عرصه‌ای آکنده از انگ‌زنی، ارعاب و تبعیض جنسیتی تبدیل شده است؛ عرصه‌ای که بسیاری از ابزارها و برنامه‌های کاربردی هوش مصنوعی -که قرار بود زندگی را آسان‌تر و عادلانه‌تر کنند- در شکل‌گیری آن نقش دارند.

از دستیارهای صوتی تا ربات‌های چت: هدف قرار دادن «صدای زنانه»

به گزارش پایگاه خبری رصیف۲۲، در سال ۲۰۲۰، یک بانک برزیلی فاش کرد که دستیار صوتی خود به نام «بیا» تنها در یک سال، ده‌ها هزار پیام جنسی و تهدیدآمیز از مشتریان دریافت کرده که از جمله آن‌ها عباراتی همچون «به تو تجاوز خواهم کرد» یا «می‌خواهم تو را برهنه ببینم» بود؛ تنها به این دلیل که صدایی زنانه داشت. به طور مشابه، ربات‌های چت با صدای زنانه مانند «سیری» و «الکسا» نیز مورد خشونت کلامی و توهین قرار گرفته‌اند. این گویای آن است که حتی حضور یک «موجود زن» -صرفاً در فضای مجازی- برای گشودن دروازه‌های خشونت، تهدید و آزار جنسی کافی است.

از تصاویر جعلی تا اخاذی: اشکال نوین خشونت

از تصاویر و ویدیوهای جعلی گرفته تا کمپین‌های افترا و اخاذی سایبری از «دوست‌های مجازی»، هوش مصنوعی اکنون اشکال متنوع و متعددی از خشونت جنسی و دیجیتالی را تولید می‌کند که هدف اصلی آن زنان و دختران هستند.

الگوریتم‌ها به عنوان آینه‌ای از تبعیض

لورا بیتس، در مقاله‌ای در روزنامه گاردین توضیح می‌دهد که چگونه مدل زبانی بزرگ «لاما»، زمینه‌ساز ایجاد پلتفرم «چت ای‌آی» شد؛ پلتفرمی که به کاربران امکان می‌دهد با ربات‌های هوشمند صحبت کرده و در نقش‌هایی که خشونت علیه زنان را به تصویر می‌کشند، ظاهر شوند. به گفته او، این وبسایت که سودهای کلانی به دست می‌آورد، تنها یکی از هزاران برنامه‌ای است که «زن‌ستیزی را در آینده ما نهادینه می‌کند».

آمار هشداردهنده: ۹۹٪ قربانیان دیپ‌فیک، زنان هستند

بر اساس داده‌ها، ابزارهای هوش مصنوعی مولد -چه آن‌هایی که تصویر، ویدیو یا متن تولید می‌کنند- ساخت «جعل‌های عمیق» (دیپ‌فیک) را آسان و سریع کرده‌اند. گزارشی از دفتر پیشگیری از خشونت خانگی نیویورک نشان می‌دهد که ۹۶٪ از ویدیوهای دیپ‌فیک ماهیت جنسی دارند و ۹۹٪ از قربانیان آن‌ها زنان هستند.

این محتواها صرفاً تصاویر دستکاری‌شده نیستند، بلکه ابزاری برای خشونت اجتماعی‌اند که می‌توانند به سلاحی برای اخاذی از زنان، ساکت کردن آن‌ها یا محروم کردنشان از عرصه عمومی تبدیل شوند. در بسیاری موارد، این تصاویر منجر به نابودی روابط عاطفی و اجتماعی، فروپاشی روانی زنان، خروج از محیط کار و حتی انزوا می‌شود. می‌توان گفت زن در معهد معادله‌ای وحشتناک قرار گرفته است: هر عکس از او می‌تواند به یک تهدید، و هر تهدید می‌تواند به واقعیتی دردناک و زندگی‌سوز تبدیل شود.

تقویت کلیشه‌ها و نابرابری‌ها

مطالعات متعدد نشان می‌دهند که هوش مصنوعی خود به بازتولید کلیشه‌های مربوط به زنان می‌پردازد و نقش آن‌ها را به کارهای خانگی محدود می‌کند، در حالی که حضور آن‌ها در نقش‌های حرفه‌ای، سیاسی یا رهبری را کمرنگ نشان می‌دهد. این سوگیری در خود داده‌ها نهفته است و از فرهنگی دیجیتالی نشأت می‌گیرد که طی دهه‌ها با نگاهی مردسالارانه شکل گرفته است.

سازمان ملل متحد در گزارشی در فوریه ۲۰۲۵ تأکید کرد که ابزارهای هوش مصنوعی غالباً «نابرابری جنسیتی را تقویت و بازتولید می‌کنند». این ابزارها بر اطلاعات جانب‌دارانه‌ای متکی هستند که در آن زنان مورد انگ زنی و پایین آوردن شأنشان قرار می‌گیرند و مردان در نقش‌های قدرت‌مندانه قرار داده می‌شوند.

تجارت پرسود محتوای خصوصی غیرداوطلبانه

خشونت ناشی از هوش مصنوعی خود به تجارتی سودآور تبدیل شده است. اکنون پلتفرم‌های تخصصی‌ای وجود دارند که خدمات تولید تصاویر و ویدیوهای جنسی با استفاده از هوش مصنوعی را می‌فروشند. گزارش‌های بین‌مللی اخیر نشان می‌دهد بخش عمده‌ای از تصاویر و ویدیوهایی که بدون رضایت صاحبانشان منتشر می‌شوند، در دسته «محتوای خصوصی غیرداوطلبانه» قرار می‌گیرند و اکثریت قربانیان آن زنان هستند.

مطالعه‌ای گسترده با بیش از ۱۶ هزار شرکت‌کننده در ده کشور نشان داد که ۲۲.۶٪ از افراد، تجربه سوءاستفاده جنسی از طریق تصاویر -اعم از انتشار یا تهدید به انتشار- را داشته‌اند. زنان در این مطالعه، از تأثیرات عمیق این پدیده بر سلامت روان و زندگی اجتماعیشان و احساس دائمی از دست دادن کنترل بر تصویر بدن خود گزارش دادند.

وضعیت در جهان عرب: خشونتی خاموش و دوچندان

در منطقه عربی، این مشکل به دلایلی فراتر از فناوری، پیچیده‌تر به نظر می‌رسد: هنجارهای محافظه‌کارانه اجتماعی، ضعف حمایت‌های قانونی و ترس از انگ خوردن، همگی عواملی هستند که زنان را در برابر این خشونت‌ها آسیب‌پذیرتر و در طلب حمایت ناتوان‌تر می‌کنند.

– در لبنان، سازمان‌هایی مانند «سمیکس» افزایش کمپین‌های دیجیتالی علیه روزنامه‌نگاران و فعالان زن را مستند کرده‌اند.

– در اردن، مقامات رسمی از گسترش حساب‌های ناشناسی هشدار داده‌اند که محتوای جعلی علیه زنان تأثیرگذار و رسانه‌ای منتشر می‌کنند.

-در عراق، سازمان «هیومن رایتس واچ» گسترش ویدیوهای خصوصی جعلی را مستند کرده که برای خاموش کردن صدای زنان فعال در عرصه سیاست و رسانه استفاده شده‌اند.

-در مصر، داده‌های دادستانی کل نشان می‌دهد اکثر پرونده‌های اخاذی سایبری علیه زنان، مبتنی بر تصاویر جنسی جعلی تولیدشده توسط برنامه‌های الکترونیکی است.

نبرد نهایی، فناورانه نیست؛ اجتماعی و فرهنگی است

دِویندرا گادون، مشاور هوش مصنوعی، به خبرگزاری فرانسه می‌گوید: «هوش مصنوعی زن‌ستیزی را اختراع نمی‌کند، بلکه آنچه از پیش وجود دارد را بازتاب و تشدید می‌کند. اگر عموم مردم این نوع محتوا را با میلیون‌ها لایک پاداش دهند، الگوریتم‌ها و خالقان هوش مصنوعی به تولید آن ادامه خواهند داد. نبرد اصلی صرفاً فناورانه نیست، بلکه اجتماعی و فرهنگی است.»

در خلاصه، هوش مصنوعی بی‌طرف نیست؛ بلکه در چارچوبی دانش‌محور عمل می‌کند که تاریخی طولانی از تبعیض جنسیتی در آن ریشه دوانده است. داده‌هایی که مدل‌ها بر آن‌ها آموزش می‌بینند، آکنده از بازنمایی‌های تقلیل‌یافته از زنان است که بر «شیء‌سازی» بدن آنان تأکید کرده و حضور حرفه‌ای و رهبری آنان را کمرنگ می‌کنند. در نتیجه، برخی برنامه‌های هوشمند، زن را به «ماده‌ای» قابل بازسازی و مصرف تبدیل می‌کنند، در حالی که مرد در جایگاه مسلط باقی می‌ماند.

این نظام فناورانه، تبعیض را بازتولید و مردسالاری سمی را تثبیت می‌کند. اگرچه ابزار آن اکنون در دستان همه است، تأثیراتش فراتر از تلفن‌ها و صفحه‌نمایش‌ها رفته و مستقیماً زندگی، بدن‌ها و آزادی زنان را نشانه رفته است.