امنیت کامپیوتر OpenAI 20 عملیات سایبری مخرب را در مقابله با کمپین های...

OpenAI 20 عملیات سایبری مخرب را در مقابله با کمپین های جهانی جرایم سایبری مسدود می کند

با کمال تعجب، OpenAI به عنوان یک نیروی قدرتمند در نبرد علیه تهدیدات دیجیتال ظاهر شده است. از ابتدای سال، این شرکت با موفقیت بیش از 20 کمپین مخرب را که به دنبال سوء استفاده از پلتفرم هوش مصنوعی برای فعالیت‌های مضر بودند، مختل کرده است و نشان می‌دهد که آینده امنیت سایبری در حال حاضر اینجاست.

این عملیات از اشکال زدایی بدافزار و ساختن اطلاعات نادرست تا ایجاد پرسونای رسانه های اجتماعی جعلی را شامل می شد. عوامل تهدید تلاش کردند از پلتفرم OpenAI برای کمک به فعالیت‌های مخرب مانند تولید بیوگرافی برای حساب‌های جعلی یا ایجاد تصاویر پروفایل تولید شده توسط هوش مصنوعی برای هویت‌های جعلی رسانه‌های اجتماعی در X (توئیتر سابق) استفاده کنند.

با این حال، علی‌رغم این تلاش‌ها، OpenAI به عموم مردم اطمینان داد که هیچ یک از این کمپین‌ها به پیشرفت‌های پیشگامانه در ایجاد بدافزار یا انتشار ویروسی اطلاعات نادرست منجر نشده است. به عبارت دیگر، در حالی که بازیگران بد در حال آزمایش هوش مصنوعی هستند، هنوز به پیشرفت های قابل توجهی دست پیدا نکرده اند.

چگونه مجرمان سایبری از هوش مصنوعی سوء استفاده کردند

بازیگران بدخواه از گوشه و کنار جهان، از چین گرفته تا ایران، آمدند و تاکتیک های مختلفی را به کار گرفتند. یکی از نمونه‌های بارز SweetSpecter، یک گروه مستقر در چین بود که از هوش مصنوعی برای تحقیقات شناسایی و آسیب‌پذیری استفاده می‌کرد، و حتی تلاش کرد (ناموفق) کارمندان OpenAI را فیش کند.

گروه های ایرانی نیز نقش قابل توجهی داشتند. Cyber Av3ngers که با سپاه پاسداران انقلاب اسلامی ایران (IRGC) مرتبط است، بر روی کنترل‌کننده‌های منطقی قابل برنامه‌ریزی با استفاده از هوش مصنوعی تحقیق کرد، در حالی که یک نهاد ایرانی دیگر، Storm-0817، از هوش مصنوعی برای اشکال‌زدایی بدافزار اندروید و حذف پروفایل‌های رسانه‌های اجتماعی استفاده کرد.

علاوه بر این کمپین های هدفمند، OpenAI چندین عملیات نفوذ در مقیاس بزرگ را مسدود کرد. یکی از اینها، A2Z، محتوای انگلیسی و فرانسوی را برای پست‌های گسترده در رسانه‌های اجتماعی تولید کرد، در حالی که Stop News از تصاویر تولید شده توسط هوش مصنوعی، اغلب به سبک‌های کارتونی یا نمایشی، برای بهبود مقالات و توییت‌های خود استفاده می‌کرد.

اخلال در کمپین های اطلاعات نادرست جهانی

کمپین های اطلاعات نادرست که نظام های سیاسی را هدف قرار می دهد یکی دیگر از زمینه های نگرانی بود. OpenAI گزارش داد که در تلاش برای تأثیرگذاری بر انتخابات در ایالات متحده، رواندا، هند و اتحادیه اروپا مداخله کرده است. هیچ یک از این تلاش ها به کشش ویروسی دست نیافتند، اما این واقعیت که بازیگران تهدید به دنبال دستکاری در انتخابات بودند، بر خطرات فزاینده ناشی از اطلاعات نادرست مبتنی بر هوش مصنوعی تأکید می کند.

STOIC، یک شرکت اسرائیلی که با نام Zero Zeno نیز شناخته می‌شود، یکی از بازیگران کلیدی در این فضا بود و نظرات رسانه‌های اجتماعی را درباره انتخابات هند ایجاد کرد، فعالیتی که قبلاً توسط متا و OpenAI در اوایل سال جاری فاش شده بود.

هوشیاری مداوم OpenAI همچنین منجر به کشف دو شبکه دیگر به نام‌های Bet Bot و Corrupt Comment شد که از API خود برای ایجاد مکالمات در X و پیوند دادن کاربران به سایت‌های قمار یا سیل رسانه‌های اجتماعی با نظرات ساخته شده استفاده می‌کردند.

نقش هوش مصنوعی در اطلاعات غلط خرد

هوش مصنوعی مولد این پتانسیل را دارد که نه تنها برای اطلاعات نادرست در مقیاس انبوه، بلکه برای هدف‌گیری کوچک نیز به سلاح تبدیل شود. بر اساس گزارش اخیر شرکت امنیت سایبری Sophos، هوش مصنوعی می تواند برای انتشار اطلاعات نادرست سیاسی بسیار شخصی سازی شده از طریق ایمیل ها، وب سایت ها و شخصیت های جعلی دستکاری شود. با تطبیق دقیق پیام‌ها برای نقاط خاص کمپین، بازیگران تهدید می‌توانند رأی دهندگان را در سطح جدیدی فریب دهند و احتمالاً نتایج انتخابات را تغییر دهند یا نظرات را با اطلاعات نادرست تغییر دهند.

محققان هشدار می دهند که به طرز نگران کننده ای آسان است که هر شخصیت یا جنبش سیاسی را با یک موضع سیاسی که ممکن است در واقع از آن حمایت نکنند، ایجاد سردرگمی در میان رای دهندگان و آسیب رساندن به روند دموکراتیک کند.

تعهد OpenAI به امنیت سایبری

در حالی که هوش مصنوعی فرصت‌های بی‌سابقه‌ای برای پیشرفت ارائه می‌دهد، اما چالش‌های امنیتی جدی را نیز به همراه دارد. OpenAI ثابت کرده است که وظیفه مقابله با تلاش های مخرب برای بهره برداری از فناوری خود را دارد. با این حال، بازی موش و گربه بین کارشناسان امنیت سایبری و مجرمان سایبری احتمالا ادامه خواهد داشت.

تلاش های OpenAI برای ایجاد اختلال در بیش از 20 کمپین جهانی در سال جاری یک پیروزی قابل توجه است، اما این مبارزه هنوز به پایان نرسیده است. همانطور که هوش مصنوعی تکامل می یابد، تاکتیک های مورد استفاده بازیگران تهدید نیز رشد می کند. هوشیاری و نوآوری مداوم در حصول اطمینان از اینکه هوش مصنوعی به جای ابزاری برای فریب دیجیتال، نیروی خوبی باقی می ماند، کلید خواهد بود.

بارگذاری...