نام کاربری یا نشانی ایمیل
رمز عبور
مرا به خاطر بسپار
در واقعیت، آنچه روزی فضایی باز برای ترویج آزادیها و ارتباطات به نظر میرسید، اکنون به عرصهای آکنده از انگزنی، ارعاب و تبعیض جنسیتی تبدیل شده است؛ عرصهای که بسیاری از ابزارها و برنامههای کاربردی هوش مصنوعی -که قرار بود زندگی را آسانتر و عادلانهتر کنند- در شکلگیری آن نقش دارند.
از دستیارهای صوتی تا رباتهای چت: هدف قرار دادن «صدای زنانه»
به گزارش پایگاه خبری رصیف۲۲، در سال ۲۰۲۰، یک بانک برزیلی فاش کرد که دستیار صوتی خود به نام «بیا» تنها در یک سال، دهها هزار پیام جنسی و تهدیدآمیز از مشتریان دریافت کرده که از جمله آنها عباراتی همچون «به تو تجاوز خواهم کرد» یا «میخواهم تو را برهنه ببینم» بود؛ تنها به این دلیل که صدایی زنانه داشت. به طور مشابه، رباتهای چت با صدای زنانه مانند «سیری» و «الکسا» نیز مورد خشونت کلامی و توهین قرار گرفتهاند. این گویای آن است که حتی حضور یک «موجود زن» -صرفاً در فضای مجازی- برای گشودن دروازههای خشونت، تهدید و آزار جنسی کافی است.
از تصاویر جعلی تا اخاذی: اشکال نوین خشونت
از تصاویر و ویدیوهای جعلی گرفته تا کمپینهای افترا و اخاذی سایبری از «دوستهای مجازی»، هوش مصنوعی اکنون اشکال متنوع و متعددی از خشونت جنسی و دیجیتالی را تولید میکند که هدف اصلی آن زنان و دختران هستند.
الگوریتمها به عنوان آینهای از تبعیض
لورا بیتس، در مقالهای در روزنامه گاردین توضیح میدهد که چگونه مدل زبانی بزرگ «لاما»، زمینهساز ایجاد پلتفرم «چت ایآی» شد؛ پلتفرمی که به کاربران امکان میدهد با رباتهای هوشمند صحبت کرده و در نقشهایی که خشونت علیه زنان را به تصویر میکشند، ظاهر شوند. به گفته او، این وبسایت که سودهای کلانی به دست میآورد، تنها یکی از هزاران برنامهای است که «زنستیزی را در آینده ما نهادینه میکند».
آمار هشداردهنده: ۹۹٪ قربانیان دیپفیک، زنان هستند
بر اساس دادهها، ابزارهای هوش مصنوعی مولد -چه آنهایی که تصویر، ویدیو یا متن تولید میکنند- ساخت «جعلهای عمیق» (دیپفیک) را آسان و سریع کردهاند. گزارشی از دفتر پیشگیری از خشونت خانگی نیویورک نشان میدهد که ۹۶٪ از ویدیوهای دیپفیک ماهیت جنسی دارند و ۹۹٪ از قربانیان آنها زنان هستند.
این محتواها صرفاً تصاویر دستکاریشده نیستند، بلکه ابزاری برای خشونت اجتماعیاند که میتوانند به سلاحی برای اخاذی از زنان، ساکت کردن آنها یا محروم کردنشان از عرصه عمومی تبدیل شوند. در بسیاری موارد، این تصاویر منجر به نابودی روابط عاطفی و اجتماعی، فروپاشی روانی زنان، خروج از محیط کار و حتی انزوا میشود. میتوان گفت زن در معهد معادلهای وحشتناک قرار گرفته است: هر عکس از او میتواند به یک تهدید، و هر تهدید میتواند به واقعیتی دردناک و زندگیسوز تبدیل شود.
تقویت کلیشهها و نابرابریها
مطالعات متعدد نشان میدهند که هوش مصنوعی خود به بازتولید کلیشههای مربوط به زنان میپردازد و نقش آنها را به کارهای خانگی محدود میکند، در حالی که حضور آنها در نقشهای حرفهای، سیاسی یا رهبری را کمرنگ نشان میدهد. این سوگیری در خود دادهها نهفته است و از فرهنگی دیجیتالی نشأت میگیرد که طی دههها با نگاهی مردسالارانه شکل گرفته است.
سازمان ملل متحد در گزارشی در فوریه ۲۰۲۵ تأکید کرد که ابزارهای هوش مصنوعی غالباً «نابرابری جنسیتی را تقویت و بازتولید میکنند». این ابزارها بر اطلاعات جانبدارانهای متکی هستند که در آن زنان مورد انگ زنی و پایین آوردن شأنشان قرار میگیرند و مردان در نقشهای قدرتمندانه قرار داده میشوند.
تجارت پرسود محتوای خصوصی غیرداوطلبانه
خشونت ناشی از هوش مصنوعی خود به تجارتی سودآور تبدیل شده است. اکنون پلتفرمهای تخصصیای وجود دارند که خدمات تولید تصاویر و ویدیوهای جنسی با استفاده از هوش مصنوعی را میفروشند. گزارشهای بینمللی اخیر نشان میدهد بخش عمدهای از تصاویر و ویدیوهایی که بدون رضایت صاحبانشان منتشر میشوند، در دسته «محتوای خصوصی غیرداوطلبانه» قرار میگیرند و اکثریت قربانیان آن زنان هستند.
مطالعهای گسترده با بیش از ۱۶ هزار شرکتکننده در ده کشور نشان داد که ۲۲.۶٪ از افراد، تجربه سوءاستفاده جنسی از طریق تصاویر -اعم از انتشار یا تهدید به انتشار- را داشتهاند. زنان در این مطالعه، از تأثیرات عمیق این پدیده بر سلامت روان و زندگی اجتماعیشان و احساس دائمی از دست دادن کنترل بر تصویر بدن خود گزارش دادند.
وضعیت در جهان عرب: خشونتی خاموش و دوچندان
در منطقه عربی، این مشکل به دلایلی فراتر از فناوری، پیچیدهتر به نظر میرسد: هنجارهای محافظهکارانه اجتماعی، ضعف حمایتهای قانونی و ترس از انگ خوردن، همگی عواملی هستند که زنان را در برابر این خشونتها آسیبپذیرتر و در طلب حمایت ناتوانتر میکنند.
– در لبنان، سازمانهایی مانند «سمیکس» افزایش کمپینهای دیجیتالی علیه روزنامهنگاران و فعالان زن را مستند کردهاند.
– در اردن، مقامات رسمی از گسترش حسابهای ناشناسی هشدار دادهاند که محتوای جعلی علیه زنان تأثیرگذار و رسانهای منتشر میکنند.
-در عراق، سازمان «هیومن رایتس واچ» گسترش ویدیوهای خصوصی جعلی را مستند کرده که برای خاموش کردن صدای زنان فعال در عرصه سیاست و رسانه استفاده شدهاند.
-در مصر، دادههای دادستانی کل نشان میدهد اکثر پروندههای اخاذی سایبری علیه زنان، مبتنی بر تصاویر جنسی جعلی تولیدشده توسط برنامههای الکترونیکی است.
نبرد نهایی، فناورانه نیست؛ اجتماعی و فرهنگی است
دِویندرا گادون، مشاور هوش مصنوعی، به خبرگزاری فرانسه میگوید: «هوش مصنوعی زنستیزی را اختراع نمیکند، بلکه آنچه از پیش وجود دارد را بازتاب و تشدید میکند. اگر عموم مردم این نوع محتوا را با میلیونها لایک پاداش دهند، الگوریتمها و خالقان هوش مصنوعی به تولید آن ادامه خواهند داد. نبرد اصلی صرفاً فناورانه نیست، بلکه اجتماعی و فرهنگی است.»
در خلاصه، هوش مصنوعی بیطرف نیست؛ بلکه در چارچوبی دانشمحور عمل میکند که تاریخی طولانی از تبعیض جنسیتی در آن ریشه دوانده است. دادههایی که مدلها بر آنها آموزش میبینند، آکنده از بازنماییهای تقلیلیافته از زنان است که بر «شیءسازی» بدن آنان تأکید کرده و حضور حرفهای و رهبری آنان را کمرنگ میکنند. در نتیجه، برخی برنامههای هوشمند، زن را به «مادهای» قابل بازسازی و مصرف تبدیل میکنند، در حالی که مرد در جایگاه مسلط باقی میماند.
این نظام فناورانه، تبعیض را بازتولید و مردسالاری سمی را تثبیت میکند. اگرچه ابزار آن اکنون در دستان همه است، تأثیراتش فراتر از تلفنها و صفحهنمایشها رفته و مستقیماً زندگی، بدنها و آزادی زنان را نشانه رفته است.
گفتگوی جهانبانو با بانوان حاضر در مسیر مشایه
آشنایی با اولین موکب بین المللی زنانه
جملات کوتاه برای تشکر از بانوان خادم عراقی
چند توصیه برای مادران جهت در پیادهروی اربعین
به پاس ۱۰۰۰ روز خدمت
جریان مقاومت، جریانی است که باید همچنان خون تازه در آن دمیده شود
سختترین و سوزناکترین درد بشر، درد فراق است
مردم خوب میدانند چه کسی خدمتگزارشان است
یادبود بانوان آمل برای شهید رئیسی و شهدای خدمت