هشدار نسبت به استفاده از هوش مصنوعی در تولید محتوای سوءاستفاده جنسی از کودکان
بریتانیا قرار است اولین نشست جهانی امنیت هوش مصنوعی را در پاییز امسال برگزار کند. بنیاد دیدبان اینترنت (ای دبلیو اف) تصاویر سوءاستفاده جنسی کودکان را از اینترنت پاک میکند. این بنیاد میگوید تصاویر ساختهشده باهوش مصنوعی رو به افزایش هستند.
پرسش: یک سازمان خیریه کودکان میخواهد نشست بینالمللی هوش مصنوعی مسئله تصاویر سو استفاده جنسی از کودکان توسط هوش مصنوعی را در فهرست موضوعات خود قرار دهد.
بنیاد دیدبان اینترنت (آی دبلیو اف) میخواهد برخورد با این موضوع در دستور کار نشست جهانی امنیت هوش مصنوعی که پاییز امسال برگزار خواهد شد قرار بگیرد.
یکی از بزرگترین خیریههای کودکان در بریتانیا از نخست وزیر این کشور ریشی سوناک خواسته است با تصاویر تعرض جنسی به کودکان که ساخته هوش مصنوعی هستند، برخورد و مقابله کند.
بریتانیا قرار است اولین نشست جهانی امنیت هوش مصنوعی را در پاییز امسال برگزار کند. بنیاد دیدبان اینترنت (ای دبلیو اف) تصاویر سوءاستفاده جنسی کودکان را از اینترنت پاک میکند. این بنیاد میگوید تصاویر ساختهشده باهوش مصنوعی رو به افزایش هستند.
سوزی هارگریوز، مدیر اجرایی بنیاد دیدبان اینترنت میگوید: «ما هنوز شاهد این تصاویر در ابعادی وسیع نیستیم اما برایمان بهوضوح روشن است که این تصاویر قابلیتی در اختیار خلافکاران میگذارند تا حجم بسیار بالایی از تصاویر فوقالعاده طبیعی از تعرض جنسی به کودکان تولید کنند.»
بیبیسی نسخه ویرایش شده بعضی از این تصاویر را دیده است که در آن دختران حدوداً ۵ ساله و برهنه در ژستهایی جنسی دیده میشوند.
بنیاد دیدبان اینترنت یکی از سه سازمان خیریه در جهان است که مجوز رسمی برای جستجو محتوی سوءاستفاده جنسی کودکان در اینترنت دارند.
این بنیاد اولین تصویرهای سو استفاده جنسی از کودکان که باهوش مصنوعی ساختهشدهاند را در ۲۴ ماه مه امسال ثبت کرد و آنطور که میگوید محققان تا ۳۰ ماه ژوئن توانستند ۲۹ وبسایت و هفت صفحه مجازی که در آنها آلبومهای عکس تصاویر هوش مصنوعی به اشتراک گذاشتهشده بود کشف کنند. این خیریه تعداد دقیق تصاویر را اعلام نکرد اما میگوید دهها تصویر هوش مصنوعی با تصاویر آزار جنسی واقعی ترکیبشده و در وب سایتهای غیرقانونی به اشتراک گذاشتهشدهاند.
بعضی از این تصاویر جز دستهبندی قرار میگیرند که کارشناسان به آنها تصاویر رده آ میگویند یعنی تصاویر با بالاترین درجه خشونت که در آنها عمل دخول نمایش دادهشده است.
تولید و تهیه تصاویر سوءاستفاده جنسی از کودکان تقریباً در تمام کشورها ممنوع است.
- هارگریوز میگوید: «ما الآن فرصت مناسبی داریم تا از این تکنولوژی جدید پیشی بگیریم. قوانینی باید مسئله سو استفاده جنسی از کودکان باهوش مصنوعی را در نظر بگیرند و جلوگیری از شیوع این تهدید جدید را جز هدفهای خود قرار دهند.»
آقای سوناک در ماه ژوئن اعلام کرد برنامهای برای میزبانی اولین نشست جهانی برای امنیت هوش مصنوعی در بریتانیا دارد.
دولت وعده داده است متخصصان و قانونگذاران را گرد هم بیاورد تا خطرات احتمالی هوش مصنوعی را موردبررسی قرار دهند و در مورد روشهایی برای همکاری بینالمللی جهت کنترل آن بحث و گفتگو شود.
متخصصان بنیاد امنیت اینترنت بهعنوان بخشی از فعالیتهایشان ترندهایی که در تولید و انتشار تصاویر آزار جنسی کودکان رخ میدهد را بررسی میکنند. یکی از ترندهای اخیر، گسترش تصویرهایی است که اصطلاحاً تصاویر سو استفاده «خود تولیدشده» نامیده میشوند. برای تولید این تصاویر،مجرم کودکی را ترغیب میکند تا برایش عکس یا ویدئوهایی از خود بفرستد.
خیریه آی دبلیو اف نگران گسترش روند تولید تصویرها با کمک هوش مصنوعی است. هرچند تعداد تصویرهای کشفشده همچنان در مقایسه با دیگر اشکال سوءاستفاده میزان جزئی را تشکیل میدهد.
در سال ۲۰۲۲ آی دبلیو اف ۲۵۰ هزار وبسایت که دارای تصاویر سو استفاده جنسی از کودکان بود را ثبت و تلاش کرد آنها را غیرقابلدسترس کند.
تحلیلگران آی دبلیو اف همچنین گفتگوهایی در فروم های خلافکاران پیدا کردند که در آنها توصیهها و آموزشهایی درباره اینکه چطور واقعیترین تصاویر از سو استفاده جنسی کودکان تهیه کنند به اشتراک گذاشتهشده بود.
آنها راههایی پیداکرده بودند که هوش مصنوعی را گول بزنند و به آن آموزش دهند چطور تصویر سواستفاده جنسی از کودکان طراحی کند. آنها به مدلهای با منبع آزاد هوش مصنوعی (اوپن سورس) دست پیداکرده و موانع ایمنی داخل آن را از بین برده بودند.
درحالیکه بیشتر تصاویر تولیدشده باهوش مصنوعی در ساختار خود مقررات سختگیرانهای دارند تا مانع استفاده مصرفکنندگان همراه با کلمات و جملههای ممنوعه شوند، ابزارهای منبع باز (اوپن سورس) وجود دارند که به شکل مجانی قابل دانلود هستند و اجازه هر استفاده ای را به کاربر میدهند.
یکی از معروفترین این منابع استیبل دیفیوژن است. کدهای این برنامه در ماه اوت سال ۲۰۲۲ به دست یک تیم از محققان دانشگاهی درزمینهٔ هوش مصنوعی منتشر شد.
بیبیسی با یکی از تولیدکنندگان تصویر به کمک هوش مصنوعی صحبت کرد. او نسخه اختصاصیافتهای از استیبل فیوژن را به کار میبرد تا با کمک آن تصاویر جنسی از دخترانی که به سن نوجوانی نرسیدهاند تولید کند.
این مرد ژاپنی گفت تصویرهای «قشنگی» که تولید میکند کاملاً توجیه شدنی هستند زیرا «برای اولین بار در تاریخ، میتوان تصویرهایی از کودکان درست کرد بیاینکه کودکان واقعی را مورد سو استفاده جنسی قرارداد.»
کارشناسان هشدار میدهند که این تصاویر میتوانند آسیبهای جدی وارد کنند.
دکتر مایکل بورک که در مورد آزارگران جنسی و آزارگران جنسی کودکان در خدمات مارشالهای ایالاتمتحده ( از نهادهای انتظامی) کار میکند، میگوید: «هیچ شکی ندارم که هوش مصنوعی تمایل به آزار جنسی کودکان را بالا خواهد برد و این انحراف شدت خواهد گرفت و آسیبها و خطرهای جدیتری برای کودکان در سراسر جهان ایجاد خواهد شد.»
پروفسور بیورن اومر یکی از طراحان ارشد برنامه استیبل دیفیوژن از تصمیم خود برای باز کردن دسترسی به این برنامه دفاع میکند. او به بیبیسی میگوید از زمانی که کدهای برنامه را به شکل آزاد منتشر کردند صدها پروژه دانشگاهی جدید و چندین و چند کسب و کار پررونق از آن زاده شدهاند.
او میگوید همین دستاوردها میتواند تصمیم او و همکارانش را توجیه کند و ادامه میدهد متوقف کردن تحقیق و توسعه پروژهها راهحل درستی نیست.
او میگوید: «ما باید این واقعیت را بپذیریم که این روند توسعه جهانی است. اینکه آن را در این برهه زمانی متوقف کنیم جلوی توسعه این تکنولوژی را در کشورهای دیگر جهان و جوامعی که دموکراتیک نیستند را نخواهد گرفت. ما باید گامهای فکر شدهای برای قانونمند کردن این پیشرفت که با سرعت زیادی به جلو حرکت میکند، پیدا کنیم.»
استیبلیتی ای آی، که در ضمن بودجه توسعه و ساخت مدلها را هم تأمین کرد یکی از اصلیترین شرکتهای تولیدکننده نسخههای جدیدتر استیبل دیفیوژن است. استیبل ای آی حاضر به مصاحبه با ما نشد اما قبلاً اعلام کرده است استفاده غیرقانونی از همه نسخههایش برای تولید تصاویر غیراخلاقی را منع میکند.
###