تحلیل

تروریست‌ها چگونه از هوش مصنوعی برای جذب نیرو و پول بهره می‌برند؟

سه‌شنبه ۱۴۰۴/۰۴/۱۷

روزنامه گاردین در مطلبی تحلیلی به بررسی چگونگی استفاده گروه‌های تروریستی از هوش مصنوعی برای جذب نیرو و تامین مالی عملیات خود پرداخت. بر این اساس، سازمان‌های ضدتروریسم در تلاش‌اند برتری خود را حفظ و حملات را خنثی کنند، اما دسترسی به ابزارهای دیجیتال آسان‌تر شده است.

گاردین روز سه‌شنبه ۱۷ تیر در گزارشی نوشت که مقام‌های ضدتروریسم سال‌هاست پیگیری فعالیت گروه‌های تروریستی و نحوه استفاده آن‌ها از ابزارهای دیجیتال و اپلیکیشن‌های شبکه‌های اجتماعی را به بازی «موش و چکش» (Whac-a-Mole) تشبیه می‌کنند؛ بازی‌ای که در آن با نابود شدن یک تهدید، بلافاصله تهدید تازه‌ای جای آن را می‌گیرد.

گروه‌های جهادی مانند داعش و پیش‌تر القاعده، و همچنین گروه‌های نژادپرست افراطی همچون نئونازی‌های «بیس»، از ابزارهای دیجیتال برای جذب نیرو، تامین مالی پنهانی از طریق رمزارزها، دانلود نقشه‌های ساخت سلاح با چاپگر سه‌بعدی و آموزش فنون خرابکاری به هوادارانشان بهره گرفته‌اند.

در این میان، نهادهای اطلاعاتی و نیروهای انتظامی همواره در تلاش بوده‌اند که از آن‌ها عقب نمانند.

تروریست‌ها از هوش مصنوعی برای تسریع در فعالیت‌های موجودشان بهره می‌برند

با گذر زمان و افزایش دسترسی به منابع متن‌باز، تلاش‌ها برای خنثی‌سازی حملات این گروه‌ها و حفظ برتری فناورانه بر آن‌ها نیز پیشرفته‌تر و پیچیده‌تر شده است.

اکنون با ظهور هوش مصنوعی چه به‌عنوان فناوری در حال توسعه سریع و چه به‌صورت اپلیکیشن‌های رایگان و در دسترس کنونی، نهادهای امنیتی در حال تقلا هستند.

منابع مطلع از تلاش‌های ضدتروریستی دولت آمریکا به روزنامه گاردین گفته‌اند که چندین نهاد امنیتی عمیقاً نگران‌اند هوش مصنوعی به‌طور فزاینده‌ای به گروه‌های متخاصم در برنامه‌ریزی و اجرای عملیات قدرت و توانایی بیشتری می‌دهد.

آدام هدلی، بنیان‌گذار و مدیر اجرایی سازمان «فناوری علیه تروریسم» که کمیته اجرایی مبارزه با تروریسم سازمان ملل از آن حمایت می‌کند، گفت: «تحقیقات ما دقیقا همین روندی را که اکنون شاهدش هستیم پیش‌بینی کرده بود؛ اینکه گروه‌های تروریستی از هوش مصنوعی بیشتر برای سرعت بخشیدن به فعالیت‌های فعلی خود استفاده می‌کنند، نه برای ایجاد یک جهش بنیادین در توانایی‌های عملیاتی‌شان.»

[@portabletext/react] Unknown block type "inlinecontent", specify a component for it in the `components.types` prop

او افزود خطرات آینده شامل استفاده تروریست‌ها از هوش مصنوعی برای توسعه سریع اپلیکیشن‌ها و وب‌سایت‌هاست؛ اما در اساس، هوش مصنوعی تولیدی (Generative AI) تهدیدهای ناشی از فناوری‌های موجود را تقویت می‌کند، نه این‌که دسته تهدیدهای کاملا جدیدی ایجاد کند.

تا این‌جا، گروه‌هایی مانند داعش و دیگر سازمان‌های مشابه، استفاده از هوش مصنوعی را آغاز کرده‌اند و به‌ویژه با کمک چت‌بات‌هایی مثل چت‌جی‌پی‌تی، محتوای تبلیغاتی خود را در قالب‌های چندرسانه‌ای و با روش‌هایی تازه و گسترده‌تر منتشر می‌کنند.

مصطفی ایاد، مدیر اجرایی موسسه گفت‌وگوی راهبردی برای آفریقا، خاورمیانه و آسیا گفت: «بخش زیادی از کاری که هوش مصنوعی انجام می‌دهد، تقویت همان چیزهایی است که پیش‌تر هم وجود داشته‌اند. این فناوری توان تبلیغاتی و انتشار محتوای آن‌ها را افزایش داده و حالا به یکی از اجزای اصلی این روند تبدیل شده است.»

اعضای داعش چطور از هوش مصنوعی برای طراحی حملاتشان استفاده می‌کنند

داعش علاقه‌اش به هوش مصنوعی را پنهان نمی‌کند و اکنون به‌صراحت فرصت بهره‌برداری از امکانات فعلی آن را به رسمیت شناخته است.

این گروه حتی در یک کانال رمزگذاری‌شده «راهنمای ابزارها و خطرات هوش مصنوعی» را برای حامیانش منتشر کرده است.

داعش در یکی از آخرین نشریات تبلیغاتی خود، درباره آینده هوش مصنوعی نوشت و تاکید کرد که باید این فناوری را به بخشی از عملیات خود تبدیل کند.

در یکی از مقاله‌های نشریه داعش آمده است: «برای هر فرد، فارغ از زمینه کاری یا تخصصش، درک ظرایف هوش مصنوعی به ضرورتی غیرقابل اجتناب تبدیل شده است.»

[@portabletext/react] Unknown block type "inlinecontent", specify a component for it in the `components.types` prop

در همین نشریه، یکی از نویسندگان داعش توضیح می‌دهد که خدمات هوش مصنوعی می‌توانند «مشاوران دیجیتال» و «دستیاران تحقیقاتی» برای هر عضو گروه باشند.

در یکی از اتاق‌های گفت‌وگوی فعال داعش که برای ارتباط با پیروان و جذب نیرو استفاده می‌شود، کاربران شروع به بحث درباره روش‌های استفاده از هوش مصنوعی کرده‌اند؛ هرچند برخی همچنان با احتیاط به آن نگاه می‌کنند.

یکی از کاربران پرسیده بود که آیا استفاده از چت‌جی‌پی‌تی برای یادگیری «چگونه ساختن مواد منفجره» امن است یا نه.

او همچنین ابراز تردید کرده بود که آیا سازمان‌های امنیتی فعالیت در این حوزه را زیر نظر دارند یا خیر؛ موضوعی که به یکی از نگرانی‌های جدی درباره حریم خصوصی این چت‌بات از زمان راه‌اندازی‌اش تبدیل شده است.

یکی دیگر از کاربران پرسیده بود: «گزینه‌های دیگری وجود دارد؟ چیزی که امن باشد.»

اما کاربر دیگری با ارسال طرح و دستورالعملی درباره ساخت «نقشه اولیه یک نمونه خودروی کنترلی از راه دور طبق گفته‌های چت‌جی‌پی‌تی»، راهی غیرمستقیم برای دور زدن سیستم‌های نظارتی پیدا کرده بود.

استفاده از خودرو برای حمله، مثل زیر گرفتن عابران، به یکی از روش‌های رایج داعش در حملات اخیر از سوی اعضا و هوادارانش تبدیل شده است.

در ماه مارس، یکی از حساب‌های مرتبط با داعش حتی یک ویدیوی ساخت بمب با استفاده از هوش مصنوعی منتشر کرد که در آن یک آواتار، دستور تهیه بمبی با وسایل خانگی را توضیح می‌داد.

گروه‌های راست افراطی نیز به ‌نوبه خود به هوش مصنوعی علاقه نشان داده‌اند؛ مثلا یکی از این گروه‌ها به هوادارانش آموزش داده چگونه می‌توانند با استفاده از آن، میم‌های جعلی و گمراه‌کننده بسازند.

گروه‌های دیگر نیز به دنبال تولید گرافیک‌هایی از آدولف هیتلر و محتوای تبلیغاتی با استفاده از هوش مصنوعی بوده‌اند.

ایاد در این زمینه گفت برخی از این ابزارهای مبتنی بر هوش مصنوعی به لحاظ امنیت عملیاتی نیز برای گروه‌های تروریستی «نعمت» بوده‌اند؛ مثلا در زمینه‌ فنون ارتباطیِ امن، مانند استفاده از تغییردهنده‌های صدای رمزگذاری‌شده که امکان پنهان کردن صدا را می‌دهند.

پیشینه استفاده گروه‌های تروریستی از فضای دیجیتال

گروه‌های تروریستی همیشه در استفاده حداکثری از فضاهای دیجیتال برای رشد و گسترش خود پیش‌رو بوده‌اند و حالا هوش مصنوعی فقط آخرین نمونه از این روند است.

در ژوئن ۲۰۱۴، زمانی که داعش تازه در حال ورود به عرصه آگاهی جهانی بود، تصاویر و پیام‌های اعدام دسته‌جمعی بیش از هزار مرد را هنگام حمله به موصل به‌صورت زنده در توییتر منتشر کرد؛ اقدامی که باعث فرار نیروهای ارتش عراق شد.

پس از آن و با تشکیل «خلافت» و افزایش عملیات‌های سایبری این گروه، تلاش گسترده و هماهنگی میان دولت‌ها و شرکت‌های بزرگ فناوری در سیلیکون ولی برای حذف حساب‌های داعش در فضای مجازی آغاز شد.

از آن زمان، سازمان‌های اطلاعاتی غربی به فضاهایی مانند رمزارزها، پیام‌رسان‌های رمزگذاری‌شده و سایت‌هایی که اطلاعات چاپ سه‌بعدی اسلحه ارائه می‌دهند، به چشم حوزه‌هایی برای نظارت و کنترل نگاه می‌کنند.

با این‌حال کاهش بودجه و تعدیل در عملیات‌های ضدتروریسم در کشورهای مختلف مانند دولت جو بایدن در آمریکا، این تلاش‌ها را تضعیف کرده است.

هدلی هشدار داد استانداردها به‌شدت افت کرده‌اند و پلتفرم‌ها و دولت‌ها تمرکز کمتری بر این حوزه دارند.

مدیر اجرایی سازمان فناوری علیه تروریسم از شرکت‌هایی مانند متا و اوپن‌ای‌آی خواست مکانیزم‌های موجود از جمله «اشتراک‌گذاری هَش و روش‌های سنتی شناسایی» را تقویت و روی بهبود «مدیریت محتوا» درباره ای‌آی کار کنند.

خبرهای بیشتر

شنیداری