OpenAI 20 عملیات سایبری مخرب را در مقابله با کمپین های جهانی جرایم سایبری مسدود می کند

با کمال تعجب، OpenAI به عنوان یک نیروی قدرتمند در نبرد علیه تهدیدات دیجیتال ظاهر شده است. از ابتدای سال، این شرکت با موفقیت بیش از 20 کمپین مخرب را که به دنبال سوء استفاده از پلتفرم هوش مصنوعی برای فعالیتهای مضر بودند، مختل کرده است و نشان میدهد که آینده امنیت سایبری در حال حاضر اینجاست.
این عملیات از اشکال زدایی بدافزار و ساختن اطلاعات نادرست تا ایجاد پرسونای رسانه های اجتماعی جعلی را شامل می شد. عوامل تهدید تلاش کردند از پلتفرم OpenAI برای کمک به فعالیتهای مخرب مانند تولید بیوگرافی برای حسابهای جعلی یا ایجاد تصاویر پروفایل تولید شده توسط هوش مصنوعی برای هویتهای جعلی رسانههای اجتماعی در X (توئیتر سابق) استفاده کنند.
با این حال، علیرغم این تلاشها، OpenAI به عموم مردم اطمینان داد که هیچ یک از این کمپینها به پیشرفتهای پیشگامانه در ایجاد بدافزار یا انتشار ویروسی اطلاعات نادرست منجر نشده است. به عبارت دیگر، در حالی که بازیگران بد در حال آزمایش هوش مصنوعی هستند، هنوز به پیشرفت های قابل توجهی دست پیدا نکرده اند.
فهرست مطالب
چگونه مجرمان سایبری از هوش مصنوعی سوء استفاده کردند
بازیگران بدخواه از گوشه و کنار جهان، از چین گرفته تا ایران، آمدند و تاکتیک های مختلفی را به کار گرفتند. یکی از نمونههای بارز SweetSpecter، یک گروه مستقر در چین بود که از هوش مصنوعی برای تحقیقات شناسایی و آسیبپذیری استفاده میکرد، و حتی تلاش کرد (ناموفق) کارمندان OpenAI را فیش کند.
گروه های ایرانی نیز نقش قابل توجهی داشتند. Cyber Av3ngers که با سپاه پاسداران انقلاب اسلامی ایران (IRGC) مرتبط است، بر روی کنترلکنندههای منطقی قابل برنامهریزی با استفاده از هوش مصنوعی تحقیق کرد، در حالی که یک نهاد ایرانی دیگر، Storm-0817، از هوش مصنوعی برای اشکالزدایی بدافزار اندروید و حذف پروفایلهای رسانههای اجتماعی استفاده کرد.
علاوه بر این کمپین های هدفمند، OpenAI چندین عملیات نفوذ در مقیاس بزرگ را مسدود کرد. یکی از اینها، A2Z، محتوای انگلیسی و فرانسوی را برای پستهای گسترده در رسانههای اجتماعی تولید کرد، در حالی که Stop News از تصاویر تولید شده توسط هوش مصنوعی، اغلب به سبکهای کارتونی یا نمایشی، برای بهبود مقالات و توییتهای خود استفاده میکرد.
اخلال در کمپین های اطلاعات نادرست جهانی
کمپین های اطلاعات نادرست که نظام های سیاسی را هدف قرار می دهد یکی دیگر از زمینه های نگرانی بود. OpenAI گزارش داد که در تلاش برای تأثیرگذاری بر انتخابات در ایالات متحده، رواندا، هند و اتحادیه اروپا مداخله کرده است. هیچ یک از این تلاش ها به کشش ویروسی دست نیافتند، اما این واقعیت که بازیگران تهدید به دنبال دستکاری در انتخابات بودند، بر خطرات فزاینده ناشی از اطلاعات نادرست مبتنی بر هوش مصنوعی تأکید می کند.
STOIC، یک شرکت اسرائیلی که با نام Zero Zeno نیز شناخته میشود، یکی از بازیگران کلیدی در این فضا بود و نظرات رسانههای اجتماعی را درباره انتخابات هند ایجاد کرد، فعالیتی که قبلاً توسط متا و OpenAI در اوایل سال جاری فاش شده بود.
هوشیاری مداوم OpenAI همچنین منجر به کشف دو شبکه دیگر به نامهای Bet Bot و Corrupt Comment شد که از API خود برای ایجاد مکالمات در X و پیوند دادن کاربران به سایتهای قمار یا سیل رسانههای اجتماعی با نظرات ساخته شده استفاده میکردند.
نقش هوش مصنوعی در اطلاعات غلط خرد
هوش مصنوعی مولد این پتانسیل را دارد که نه تنها برای اطلاعات نادرست در مقیاس انبوه، بلکه برای هدفگیری کوچک نیز به سلاح تبدیل شود. بر اساس گزارش اخیر شرکت امنیت سایبری Sophos، هوش مصنوعی می تواند برای انتشار اطلاعات نادرست سیاسی بسیار شخصی سازی شده از طریق ایمیل ها، وب سایت ها و شخصیت های جعلی دستکاری شود. با تطبیق دقیق پیامها برای نقاط خاص کمپین، بازیگران تهدید میتوانند رأی دهندگان را در سطح جدیدی فریب دهند و احتمالاً نتایج انتخابات را تغییر دهند یا نظرات را با اطلاعات نادرست تغییر دهند.
محققان هشدار می دهند که به طرز نگران کننده ای آسان است که هر شخصیت یا جنبش سیاسی را با یک موضع سیاسی که ممکن است در واقع از آن حمایت نکنند، ایجاد سردرگمی در میان رای دهندگان و آسیب رساندن به روند دموکراتیک کند.
تعهد OpenAI به امنیت سایبری
در حالی که هوش مصنوعی فرصتهای بیسابقهای برای پیشرفت ارائه میدهد، اما چالشهای امنیتی جدی را نیز به همراه دارد. OpenAI ثابت کرده است که وظیفه مقابله با تلاش های مخرب برای بهره برداری از فناوری خود را دارد. با این حال، بازی موش و گربه بین کارشناسان امنیت سایبری و مجرمان سایبری احتمالا ادامه خواهد داشت.
تلاش های OpenAI برای ایجاد اختلال در بیش از 20 کمپین جهانی در سال جاری یک پیروزی قابل توجه است، اما این مبارزه هنوز به پایان نرسیده است. همانطور که هوش مصنوعی تکامل می یابد، تاکتیک های مورد استفاده بازیگران تهدید نیز رشد می کند. هوشیاری و نوآوری مداوم در حصول اطمینان از اینکه هوش مصنوعی به جای ابزاری برای فریب دیجیتال، نیروی خوبی باقی می ماند، کلید خواهد بود.