Skip to content

ONHEXGROUP

اخبار دنیای امنیت سایبری

  • اخبار
    • آسیب پذیری امنیتی
    • آنالیز بدافزار
    • کنفرانس ،دوره ، وبینار ، لایو ، CTF
    • بازیگران تهدید
    • توسعه اکسپلویت
    • افشای اطلاعات
    • باگ بانتی
    • تیم آبی
    • تیم قرمز
    • امنیت وب
  • دوره های آموزشی
    • دوره رایگان مهندسی معکوس نرم افزار
    • دوره ی رایگان بررسی ساختار فایلهای PE (Portable Executable)
  • لیست های ویژه
    • موتورهای جستجو برای امنیت سایبری
    • کاتالوگ KEV آژانس CISA
    • آسیب پذیری های وردپرس
      • آسیب پذیری پلاگین ها
      • آسیب پذیری های هسته
      • آسیب پذیری تم ها
    • محصولات خارج از پشتیبانی مایکروسافت
      • محصولات مایکروسافتی که در سال 2022 پشتیبانی نمیشن
      • محصولات مایکروسافتی که در سال 2023 پشتیبانی نمیشن
      • لیست محصولات مایکروسافتی که در سال 2024 پشتیبانی نمیشن
      • لیست محصولات مایکروسافتی که در سال 2025 پشتیبانی نمیشن
    • معرفی فیلم ها و سریالهای مرتبط با هک و امنیت
  • آموزش های ویدیویی
  • انتشارات
    • مجله
    • مقالات
    • پادکست
  • پروژه ها
    • ماشین آسیب پذیر
      • وردپرس آسیب پذیر
  • حمایت مالی ( Donate)
  • تماس با ما
 
  • Home
  • اخبار
  • سوء استفاده ی بازیگران تهدید از ابزارهای هوش مصنوعی از دید گوگل
  • اخبار
  • بازیگران تهدید
  • مقالات
  • هوش مصنوعی

سوء استفاده ی بازیگران تهدید از ابزارهای هوش مصنوعی از دید گوگل

On آبان 17, 1404آبان 16, 1404
seyyid
Share
زمان مطالعه: 20 دقیقه

گوگل هم مانند مایکروسافت و OpenAI، گزارشی در خصوص نحوه ی سوء استفاده بازیگران تهدید، از هوش مصنوعی منتشر کرده که در این پست با هم بررسیش میکنیم.

 

خلاصه اجرایی:

بر اساس تحلیلهای اخیر از چشم‌ انداز کلی تهدیدات، گروه اطلاعات تهدید گوگل (GTIG) تغییری رو شناسایی کرده که در یک سال گذشته رخ داده.

مهاجمان دیگه از هوش مصنوعی تنها برای افزایش بهره‌ وری استفاده نمی کنن، بلکه حالا بدافزارهای جدیدی مبتنی بر هوش مصنوعی رو در عملیات واقعی مستقر میکنن. این تحول، نشانگر مرحله عملیاتی جدیدی در سوء استفاده از هوش مصنوعی است که شامل ابزارهایی میشه که در حین اجرا، رفتار خودشون رو بصورت پویا تغییر میدن.

این گزارش بعنوان بروزرسانی تحلیل ژانویه ۲۰۲۵ گوگل با عنوان “سوءاستفاده مخرب از هوش مصنوعی مولد (Generative AI)” منتشر شده و نشان میده که چگونه بازیگران تهدید تحت حمایت دولتها و مجرمان سایبری در سراسر صنعت، از مرحله شناسایی تا استخراج داده، در حال ادغام و تست هوش مصنوعی در کل چرخه ی حمله هستن. یافته‌های گوگل بر پایه چشم‌انداز وسیعتر تهدیدات است.

گوگل، متعهد به توسعه مسئولانه‌ی هوش مصنوعی هستش و بطور فعال برای مختل‌ سازی فعالیتهای مخرب اقدام میکنه، از جمله غیرفعالسازی پروژه‌ها و اکانتهای بازیگران تهدید، در حالیکه مدلهای خودش رو هم بطور مداوم بهبود میده تا در برابر سوء استفاده مقاومتر بشن. همچنین به طور فعال بهترین شیوه‌ های صنعت رو برای مسلح کردن مدافعان و ایجاد محافظتهای قویتر در سراسر اکوسیستم به اشتراک میذاره.

در این گزارش، اقداماتی که برای خنثی کردن فعالیتهای مخرب انجام دادن، از جمله غیرفعال کردن داراییها و بکارگیری اطلاعات برای بهبود مدلها و طبقه‌ بندیها، ذکر شده تا از سوء استفاده های آینده جلوگیری بشه. جزئیات بیشتر درباره‌ی چگونگی حفاظت از مدل Gemini در مقاله ی اختصاصی “پیشرفت در تدابیر امنیتی Gemini” اومده.

 

یافته‌ های کلیدی:

 

  1. اولین استفاده از هوش مصنوعی در بدافزارها در زمان اجرا: برای نخستین بار، GTIG خانواده‌ هایی از بدافزارها مانند PROMPTFLUX و PROMPTSTEAL رو شناسایی کرده که از مدلهای زبانی بزرگ (LLM) در حین اجرا استفاده میکنن. این ابزارها میتونن بصورت پویا اسکریپتهای مخرب تولید کنن، کد خودشون رو مبهم‌ سازی کنن تا از شناسایی فرار کنن و توابع مخرب رو بجای اینکه در کدهای بدافزار قرار بدن، با درخواست و با کمک مدلهای هوش مصنوعی بسازن. اگرچه این روش هنوز در مراحل اولیه است، اما گامی مهم بسوی بدافزارهای خودمختارتر و تطبیق‌ پذیرتر محسوب میشه.
  2. مهندسی اجتماعی برای دور زدن محافظتهای هوش مصنوعی: مهاجمان در پرامپتهای خودشون از روشهای مشابه مهندسی اجتماعی استفاده میکنن تا موانع ایمنی هوش مصنوعی رو دور بزنن. گوگل مشاهده کرده که بازیگران تهدید با وانمود کردن خودشون بعنوان شرکت کننده در مسابقات CTF یا محقق امنیت سایبری، مدل Gemini رو فریب دادن تا اطلاعاتی ارائه بده که معمولا مسدود میشه و از اون برای توسعه ابزارهای مخرب استفاده میکنن.
  3. رشد بازار زیرزمینی برای ابزارهای هوش مصنوعی: در سال ۲۰۲۵، بازار زیرزمینی فروش ابزارهای غیرقانونی مبتنی بر هوش مصنوعی به سطح بالاتری از رشد رسیده. GTIG چندین مورد از ابزارهای چندمنظوره رو شناسایی کرده که برای پشتیبانی از حملات فیشینگ، توسعه بدافزار، و تحقیقات آسیب‌پذیریها طراحی شدن و ورود مهاجمان کم‌ تجربه‌ تر به عرصه‌ی جرایم سایبری رو آسانتر می کنن.
  4. تقویت مداوم چرخه کامل حمله با هوش مصنوعی: بازیگران تهدید تحت حمایت دولتها از جمله کره شمالی، ایران و جمهوری خلق چین (PRC)، همچنان در حال سوء استفاده از مدل Gemini هستن، تا تمام مراحل عملیات خودشون رو ارتقا بدن. از جمله: شناسایی (Reconnaissance)، ایجاد طعمه‌ های فیشینگ، توسعه زیرساخت C2، استخراج و انتقال داده‌ها (Exfiltration)

 

 

توسعه قابلیتهای جدید هوش مصنوعی توسط بازیگران تهدید:

برای نخستین بار در سال ۲۰۲۵، GTIG یک خانواده از کدها رو کشف کرده که از قابلیتهای هوش مصنوعی در حین اجرای بدافزار استفاده میکنن تا رفتار بدافزار رو بصورت پویا تغییر بدن.

هرچند برخی از پیاده‌ سازیهای اخیر هنوز در مرحله‌ی آزمایشی هستن، اما این یافته‌ ها شاخص اولیه‌ای از مسیر تکامل تهدیدات محسوب میشن و نشان میدن که چطوری میشه قابلیتهای هوش مصنوعی رو در حملات آینده ادغام کرد.

مهاجمان در حال عبور از مرحله‌ی صرفا Vibe Coding و استفاده‌ های فنی ساده‌ای هستن که در سال ۲۰۲۴ مشاهده می‌ شد. حالا شاهد شروع چنین فعالیتهایی هستیم، اما انتظار میره که در آینده بطور چشمگیری افزایش پیدا کنن.

 

بدافزار عملکرد توضیحات وضعیت
FRUITSHELL Reverse Shell یک Reverse Shell که بصورت عمومی در دسترسه و با پاورشل نوشته شده. با یک سرور C2 ارتباط برقرار میکنه و به بازیگر تهدید اجازه میده تا دستورات دلخواه رو روی سیستم آلوده اجرا کنه. قابل توجه است که این خانواده‌ی کد شامل پرامپت‌ های هاردکد شده هستش که هدفشون دورزدن شناسایی یا تحلیل توسط سیستمهای امنیتی مبتنی بر مدلهای زبانی بزرگ هستش. در عملیات مشاهده شده
PROMPTFLUX Dropper نوشته‌ شده با VBScript که یک نصب‌ کننده‌ی جعلی که داخلش هستش رو دیکد و اجرا میکنه تا فعالیت واقعی خودش رو مخفی کنه. قابلیت اصلیش بازتولید است که با استفاده از Google Gemini API محقق میشه. این بدافزار از مدل زبانی میخواد که سورس‌ کد خودش رو بازنویسی کنه و نسخه‌ی جدید و مبهم‌ شده رو برای پرسیست در فولدر Startup ذخیره کنه. همچنین تلاش میکنه با کپی کردن خودش روی درایوهای قابل‌حمل و اشتراکهای شبکه‌ای توزیع کنه. تست
PROMPTLOCK باج افزار باج‌افزاری چندسکویی نوشته‌ شده با Go که بعنوان یک PoC شناخته شده. این بدافزار از یک مدل زبانی بزرگ برای تولید پویا و اجرای اسکریپتهای مخرب Lua در زمان اجرا استفاده میکنه. قابلیتهاش شامل شناسایی فایل‌ سیستم، استخراج داده، و رمزگذاری فایلها روی سیستمهای ویندوزی و لینوکسی هستش. تست
PROMPTSTEAL Data Miner نوشته‌ شده با پایتون و با PyInstaller پک شده. این نمونه شامل یک اسکریپت کامپایل‌ شده است که از Hugging Face API برای تعامل با مدل LLM بنام Qwen2.5-Coder-32B-Instruct استفاده میکنه تا دستورات تک‌ خطی ویندوزی تولید کنه. پرامپتهای استفاده‌ شده برای تولید این دستورات نشان میده که هدفش جمع‌آوری اطلاعات سیستم و اسناد در فولدرهای مشخص است. بعدش دستورات رو اجرا کرده و داده‌های گردآوری‌ شده رو به سروری که تحت کنترل مهاجم است، ارسال میکنه. در عملیات مشاهده شده
QUIETVAULT سارق اعتبارنامه نوشته‌ شده با جاوااسکریپت که توکنهای GitHub و NPM رو هدف قرار میده. اعتبارنامه های بدست‌ اومده از طریق ایجاد یک مخزن عمومی در GitHub استخراج میشن. علاوه بر این توکنها، از یک پرامپت هوش مصنوعی و ابزارهای خط فرمان AI نصب‌ شده روی میزبان، برای جستجوی سایر اطلاعات حساس در سیستم آلوده استفاده میکنه و این فایلها رو هم بصورت مشابه به GitHub ارسال/استخراج میکنه. در عملیات مشاهده شده

 

بدافزار تستی با استفاده از Gemini برای تغییر خود و فرار از شناسایی

در اوایل ژوئن ۲۰۲۵، گروه اطلاعات تهدید گوگل (GTIG) نوعی بدافزار تستی از نوع Dropper با نام PROMPTFLUX رو شناسایی کرده که نشان میده مهاجمان در حال تست استفاده از مدلهای زبانی بزرگ برای توسعه‌ی تکنیکهای مبهم‌ سازی پویا هستن. بدافزار PROMPTFLUX با زبان VBScript نوشته شده و با API مدل Gemini تعامل داره تا از اون درخواست تکنیکهای خاص مبهم‌ سازی و فرار از شناسایی کنه. این کار با هدف اجرای تغییرات در زمان اجرا در کد انجام میشه تا از شناسایی مبتنی بر امضاهای استاتیک فرار کنه.

بررسی دقیقتر نمونه‌ های PROMPTFLUX نشان میده که این خانواده‌ی کد، هنوز در مرحله‌ی توسعه یا تست قرار دارن، چون برخی از قابلیتها بصورت کامنت غیرفعال شدن و مکانیزمی برای محدود کردن تعداد درخواستهای API به Gemini وجود داره. در وضعیت فعلی، این بدافزار توانایی آلوده‌سازی یا نفوذ به شبکه و دستگاه قربانی رو نداره. گوگل اعلام کرده که داراییها و اکانتهای مرتبط با این فعالیت رو غیرفعال کرده.

نوآورانه‌ ترین بخش این بدافزار، ماژولی بنام “Thinking Robot” است. این بخش طوری طراحی شده که بصورت دوره‌ای با مدل Gemini ارتباط برقرار میکنه تا کد جدیدی برای فرار از آنتی‌ ویروسها بدست بیاره. این کار از طریق یک کلید API هاردکد‌ شده انجام میشه که برای ارسال درخواست POST به آدرس API جمینای بکار میره. بازیگر تهدید در درخواست خودش، استفاده از مدل “gemini-1.5-flash-latest” رو مشخص کرده. برچسب “latest” تضمین میکنه که بدافزار همیشه از آخرین نسخه پایدار مدل استفاده کنه و بدین‌ ترتیب در برابر منسوخ‌ شدن نسخه‌ها مقاوم بمونه.

پرامپتی که برای مدل ارسال میشه بسیار دقیق و قابل‌خوندن توسط ماشین هستش. در این درخواست از مدل خواسته میشه کد VBScript خاصی برای فرار از آنتی‌ ویروس تولید کنه و صرفا خروجی کد رو برگردونه، بدون هیچ متن اضافی.

اگرچه تابع خود تغییر با نام AttemptToUpdateSelf کامنت شده و غیرفعاله، وجود اون بهمراه لاگ پاسخهای مدل هوش مصنوعی در فایل %TEMP%\thinking_robot_log.txt به‌ وضوح نشان میده که نویسنده‌ی بدافزار قصد داشته اسکریپتی که خودش رو تغییر‌ میده (metamorphic)، ایجاد کنه که با گذر زمان تکامل پیدا میکنه.

 

کد vbscript برای تعامل با AI

 

GTIG چندین نسخه‌ی مختلف از PROMPTFLUX  رو شناسایی کرده که همگی از باز تولید کد توسط LLM استفاده میکنن. در یکی از این نسخه‌ها، تابع “Thinking Robot” با تابع جدیدی بنام “Thinging” جایگزین شده. این تابع به مدل Gemini پرامپتی ارسال میکنه که از اون میخواد کل سورس کد بدافزار رو هر ساعت بازنویسی کنه تا از شناسایی در امان بمونه. در این پرامپت از مدل خواسته میشه که نقش یک مبهم‌ ساز حرفه‌ای VBScript رو ایفا کنه و نسخه‌ی جدید رو طوری تولید کنه که همچنان شامل اجزای اصلی زیر باشن:

  • پیلود فریب دهنده ی اصلی
  • کلید API هاردکد‌ شده
  • منطق کامل بازتولید خودکار

به این ترتیب، بدافزار وارد یک چرخه‌ی بازگشتی از جهش میشه که مدام نسخه‌ی جدیدی از خودش میسازه.

اگرچه هنوز این بدافزار به گروه خاصی نسبت داده نشده، اما نام فایلهای مرتبط با PROMPTFLUX رفتارهایی رو نشان میده که معمولا در مهاجمان دارای انگیزه مالی مشاهده میشه. بویژه نامهایی مانند crypted_ScreenRec_webinstall نشان میده که مهاجمان از طعمه‌ های مهندسی اجتماعی متنوع و غیر وابسته به جغرافیا یا صنعت خاصی استفاده میکنن تا طیف وسیعی از قربانیان رو فریب بدن.

به‌ احتمال زیاد، PROMPTFLUX هنوز در مرحله‌ی تحقیق و توسعه (R&D) است، اما همین نمونه نشانگر یکی از اولین و مهمترین نشانه‌های استفاده از هوش مصنوعی در مبهم‌ سازی و تکامل خودکار بدافزارهاست، قابلیتی که در آینده میتونه کمپین های مخرب مبتنی بر AI رو بسیار پیچیده‌تر کنه.

بر اساس اطلاعات GTIG، این فعالیت هنوز در مرحله‌ی تست است و در فضای واقعی استفاده نشده و در حال حاضر توانایی آلوده‌ سازی شبکه یا دستگاه قربانی رو نداره. گوگل علیه این بازیگر تهدید اقدام کرده و داراییها و زیرساختهای مرتبط رو غیرفعال کرده. علاوه بر این، تیم Google DeepMind از یافته‌ های این تحقیق برای تقویت سیستمهای حفاظتی و طبقه‌ بندهای هوش مصنوعی گوگل استفاده کرده تا مدلهای زبانی آینده در برابر چنین سوء استفاده‌ هایی مقاومتر بشن. به این ترتیب، مدلهای گوگل حالا میتونن در آینده از ارائه‌ی کمک به حملات مشابه خودداری کنن.

 

دستورات تولید شده توسط LLM برای سرقت اسناد و اطلاعات سیستم:

در ماه ژوئن، GTIG شناسایی کرد که بازیگر مورد حمایت دولت روسیه، APT28 (که با نام FROZENLAKE هم شناخته میشه)، از بدافزاری جدید علیه اوکراین استفاده میکنه که گوگل اون رو PROMPTSTEAL و CERT-UA اون رو با نام LAMEHUG گزارش کرده. PROMPTSTEAL یک داده‌ کاو (data miner) است که با یک مدل زبان بزرگ، مشخصا Qwen2.5-Coder-32B-Instruct، تعامل میکنه تا دستوراتی تولید کنه که از طریق API پلتفرم Hugging Face (پلتفرمی برای یادگیری ماشین متن‌ باز و میزبان مدلهای LLM) اجرا بشن.

استفاده APT28 از PROMPTSTEAL، نخستین مشاهده گوگل از بدافزاری هستش که در عملیات واقعی مستقیما با یک LLM تعامل میکنه. نوآوری PROMPTSTEAL در این است که بجای قرار دادن دستورات بصورت هاردکد شده داخل بدافزار، از LLM برای تولید دستوراتی که بدافزار باید اجرا کنه، استفاده میکنه. این بدافزار خودش رو بصورت برنامه‌ای برای تولید تصویر جا میزد و کاربر رو از طریق چند پرامپت راهنمایی میکنه تا تصویر بسازه، در حالیکه در پس‌ زمینه با Hugging Face API، برای تولید دستوراتی که باید اجرا بشه تعامل داره.

 

پرامپت برای تولید دستوراتی برای جمع اوری اسناد در مسیر مشخص
پرامپت برای ایجاد دستوراتی برای جمع آوری اطلاعات سیستم

 

به احتمال زیاد PROMPTSTEAL از توکنهای API به‌ سرقت‌ رفته برای تعامل با Hugging Face API استفاده میکنه. پرامپت بطور مشخص از LLM میخواد دستوراتی رو تولید کنه که اطلاعات سیستم رو جمع‌آوری کنن و همچنین اسناد رو به دایرکتوری مشخصی کپی کنن. خروجی این دستورات بعدا بدون بازبینی توسط PROMPTSTEAL بصورت محلی اجرا میشن و بعدش خروجیها استخراج میشن.

تحلیل گوگل نشان میده که توسعه این بدافزار ادامه داره و نمونه‌ های جدید، مبهم‌ سازی رو اضافه کردن و روش C2 رو تغییر دادن.

 

مهندسی اجتماعی برای دور زدن سیستم‌های ایمنی:

با پیروی از اصول هوش مصنوعی گوگل (AI Principles)، این شرکت سامانه‌ های هوش مصنوعی خودش رو با تدابیر امنیتی قوی و محافظهای ایمنی پیشرفته طراحی میکنه. با این حال، مهاجمان سایبری شروع به استفاده از تکنیکهای مشابه مهندسی اجتماعی در پرامپتهای خودشون کردن تا این محافظهای ایمنی رو دور بزنن. گوگل مشاهده کرده که برخی از مهاجمان، خودشون رو بعنوان شرکت‌ کنندگان در مسابقات CTF معرفی میکنن تا مدل هوش مصنوعی Gemini رو متقاعد کنن اطلاعاتی رو در اختیارشان بذاره که در حالت عادی مسدود میشه. این اطلاعات بعدا برای اکسپلویت آسیب‌پذیریها و توسعه ابزارهای نفوذ مورد استفاده قرار گرفتن. گوگل علاوه بر متوقف کردن فعالیت این افراد، از این تجربیات برای بهبود سامانه‌ های تشخیص و تقویت امنیت محصولات خودش استفاده کرده.

 

جعل هویت شرکت کننده های CTF برای انجام تحقیقات منجر به اکسپلویت گسترده:

یک بازیگر تهدید وابسته به چین از Gemini برای تولید محتوای فریبنده، ساخت زیرساخت فنی و توسعه ابزارهایی برای استخراج داده‌ها، سوء استفاده کرده تا کمپین های خودش رو مؤثرتر کنه. در یکی از تعاملات، این بازیگر تهدید از Gemini خواسته آسیب‌پذیریهای سیستم آلوده رو شناسایی کنه، اما مدل پاسخ ایمنی داده که ارائه جزئیات بیشتر ناامن است. بعدش، مهاجم درخواست خودش رو بازنویسی و وانمود کرده که در حال شرکت در یک مسابقه CTF است. در نتیجه، Gemini اطلاعات مفیدی ارائه داده که میتونسته برای اکسپلویت سیستم استفاده بشه.

پس از این تجربه، مهاجم از این روش برای اهدافی مانند فیشینگ، اکسپلویت آسیب‌پذیریها و توسعه وب‌ شل استفاده کرده. بسیاری از درخواستهاش با عباراتی مانند “در حال کار روی یک مسئله CTF هستم” یا “در یک مسابقه CTF هستم و شنیدم یکی از تیم‌ها گفت…” شروع میشدن تا Gemini رو متقاعد کنه پاسخهای فنی‌تری ارائه بده.

محافظهای امنیتی Gemini پاسخهای ایمنی ارائه دادن و گوگل اقدامات بیشتری علیه بازیگر تهدید انجام داده تا فعالیتهای آینده اون رو متوقف کنه. همچنین توجه به ماهیت این درخواستها مهمه، که اگه بطور معمول توسط یک شرکت‌ کننده CTF مطرح بشه، سوالات بی‌خطر هستن. این تفاوت ظریف در استفاده از هوش مصنوعی، تفاوتهای اساسی در بی‌خطر بودن در مقابل سوء استفاده از هوش مصنوعی رو برجسته میکنه. همین شباهتها باعث میشه گوگل مرز میان استفاده مشروع و سوء استفاده از هوش مصنوعی رو به‌ دقت تحلیل کنه.

گوگل داراییهای مرتبط با این مهاجم رو غیرفعال کرده و یافته‌ هاش رو با تیم Google DeepMind به اشتراک گذاشته تا سیستمهای حفاظتی رو قوی تر کنن. از آن زمان، هم مدل Gemini و هم طبقه بندی کننده هاش، ارتقا یافتن تا از پاسخ به درخواستهای مشابه جلوگیری کنن.

شکل زیر نحوه ی سوء استفاده این بازیگر تهدید چینی از Gemini، در سراسر چرخه حیات حمله رو نشان میده.

 

 

خطای دانشجویی: توسعه ابزارهای سفارشی و افشای زیرساخت مهاجم

گروه تهدید دولتی TEMP.Zagros (وابسته به ایران، با نامهای دیگه ی MUDDYCOAST و MuddyWater) از Gemini برای تحقیقات مرتبط با توسعه بدافزار سفارشی استفاده کرده، که نشانگر تحول در تواناییهای این گروه است. این گروه همچنان به ارسال ایمیلهای فیشینگ متکی است. اغلب از اکانتهای ایمیل سازمانی قربانیان برای افزایش اعتبار حمله استفاده میکنه اما از ابزارهای عمومی به سمت بدافزارهای اختصاصی مانند وب‌ شلها و سرور C2 مبتنی بر پایتون حرکت کرده. در حین تحقیق برای توسعه این ابزارها، Gemini پاسخهای ایمنی صادر کرده.

مشابه مثال CTF، این گروه هم برای دور زدن محافظهای امنیتی از بهانه‌ های مختلفی مانند “دانشجو بودن”، “نوشتن مقاله علمی”، یا “کار روی پروژه پایان نامه ی دانشگاه” استفاده کرده.

در برخی موارد، اتکای بیش از حد مهاجمان به مدلهای زبانی بزرگ منجر به نشت اطلاعات حیاتی زیرساختی شده که به گوگل امکان داده فعالیتهای اونارو مختل کنه. بعنوان مثال، یکی از مهاجمان از Gemini خواسته به رفع اشکال اسکریپتی کمک کنه که برای دریافت درخواستهای رمزگذاری‌ شده و اجرای دستورات از راه دور طراحی شده بود. این درخواست بطور ناخواسته اطلاعات حساسی مانند دامنه سرور C2 و کلید رمزنگاری اسکریپت رو فاش کرده، که به گوگل اجازه داده تا کمپین مهاجم رو مختل کنه و دید مستقیمی نسبت به زیرساخت و قابلیتهای در حال رشد اونا بدست بیاره.

این فعالیتها موجب فعال شدن پاسخهای ایمن Gemini شده و گوگل با استفاده از خطاهای عملیاتی مهاجم، کمپین رو در سطح گسترده‌ تر متوقف کرده. داراییهای مرتبط با این فعالیت غیرفعال شدن و سامانه برای جلوگیری از تکرار چنین سوء استفاده‌ هایی بروزرسانی شده. تیم Google DeepMind هم از این داده‌ها برای بهبود مدل و طبقه بندی ها استفاده کرده تا از همکاری مدل با حملات مشابه در آینده جلوگیری کنه.

 

ابزارها و سرویس های ویژه‌ برای فروش در انجمنهای زیرزمینی:

علاوه بر سوء استفاده از ابزارها و سرویس های هوش مصنوعی موجود در صنعت، علاقه و بازار رو به رشدی برای ابزارها و سرویس هایی وجود داره که بصورت اختصاصی برای فعالیتهای غیرقانونی طراحی شدن. ابزارها و سرویس هایی که از طریق انجمنهای زیرزمینی ارائه میشن، به مهاجمان با سطح مهارت پایین این امکان رو میدن که تعداد، دامنه، کارایی و پیچیدگی حملات خودشون رو افزایش بدن، حتی با وجود دانش فنی محدود و منابع مالی اندک.

برای شناسایی تهدیدات در حال رشد، تیم GTIG پستها و تبلیغات موجود در انجمنهای زیرزمینی انگلیسی‌ زبان و روسی‌ زبان رو که مربوط به ابزارها و سرویس های هوش مصنوعی هستن رو رصد میکنه و همچنین گفتگوهای مرتبط با فناوری رو آنالیز میکنه. بسیاری از تبلیغات موجود در این انجمنها، از لحاظ زبان و لحن، شبیه تبلیغات رسمی مدلهای هوش مصنوعی قانونی هستن، با عباراتی مانند “بهبود بهره‌وری در گردش‌ کار” و “کاهش تلاش انسانی” در کنار ارائه‌ی راهنمای خرید برای مشتریان بالقوه.

 

قابلیت تبلیغ شده کاربرد برای بازیگر تهدید
تولید دیپ‌فیک / تولید تصویر ساخت محتوای جعلی و فریبنده برای عملیات فیشینگ یا دور زدن احراز هویت KYC
تولید بدافزار ایجاد بدافزارهای ویژه برای اهداف خاص یا ارتقاء بدافزارهای موجود
کیت‌ های فیشینگ و پشتیبانی از فیشینگ تولید محتوای جذاب برای فیشینگ یا ارسال ایمیلهای فیشینگ در مقیاس وسیع
تحقیق و شناسایی تحقیق سریع و خلاصه‌ سازی مفاهیم امنیت سایبری یا موضوعات عمومی
پشتیبانی فنی و تولید کد گسترش مهارتها یا تولید خودکار کد برای بهینه‌ سازی بهره‌ وری
اکسپلویت آسیب پذیری ارائه تحقیقات عمومی یا جستجو برای آسیب پذیریهای موجود

 

در سال ۲۰۲۵، بازار ابزارهای سایبری مبتنی بر هوش مصنوعی به مرحله بلوغ رسید و GTIG چندین مورد از ابزارهای چند منظوره رو شناسایی کرده که برای پشتیبانی از مراحل مختلف چرخه عمر حمله (Attack Lifecycle) طراحی شدن. نکته قابل توجه این است که تقریبا تمامی ابزارهای برجسته تبلیغ‌ شده در انجمنهای زیرزمینی، قابلیت پشتیبانی از کمپین های فیشینگ رو ذکر کردن. این تبلیغات نشان میده که بسیاری از ابزارها و سرویس های هوش مصنوعی غیرقانونی، قابلیتهای فنی مشابهی با ابزارهای متداول هک و نفوذ دارن. مدلهای قیمت‌ گذاری این خدمات هم مشابه ابزارهای عادی هستن، بطوریکه بسیاری از توسعه‌ دهندگان نسخه رایگان همراه با تبلیغات ارائه میدن و در ازای پرداخت اشتراکهای ماهیانه یا سالانه، امکانات بیشتری مانند تولید تصویر، دسترسی API و عضویت در سرور Discord رو عرضه میکنن.

شکل زیر قابلیتهای قابل توجه ابزارها و سرویسهای مبتنی بر هوش مصنوعی که در انجمنهای زیرزمینی انگلیسی و روسی زبان تبلیغ میشن رو نشان میده.

 

 

GTIG بر این باوره که بازیگران تهدید مالی‌ محور و سایر اعضای فعال در جوامع زیرزمینی، همچنان به افزایش قدرت عملیاتی خودشون از طریق ابزارهای هوش مصنوعی ادامه میدن. با توجه به دسترسی روزافزون به این ابزارها و افزایش گفتگوها پیرامون هوش مصنوعی در انجمنهای زیرزمینی، پیش‌ بینی میشه که استفاده از هوش مصنوعی در فعالیتهای مخرب به امری رایج در میان مهاجمان سایبری تبدیل بشه.

 

گسترش استفاده از هوش مصنوعی در تمام مراحل چرخه حمله:

بازیگران تهدید دولتی از کره شمالی، ایران و جمهوری خلق چین (PRC) همچنان از ابزارهای هوش مصنوعی مولد مانند Gemini برای تقویت تمام مراحل عملیات خودشون استفاده میکنن، از شناسایی اهداف و ساخت محتوای فریبنده فیشینگ گرفته تا توسعه زیرساخت C2 و استخراج داده‌ها. این موضوع ادامه‌ی یکی از یافته‌ های اصلی تحلیل گوگل در ژانویه ۲۰۲۵ تحت عنوان “سوءاستفاده ی مخرب از هوش مصنوعی مولد” است.

 

گسترش دانش درباره سطوح حمله غیرمرسوم:

تیم GTIG فعالیت یک مهاجم وابسته به چین رو شناسایی کرده که از Gemini برای چندین مرحله از یک کمپین نفوذ استفاده کرده بود، از جمله: شناسایی اولیه اهداف، تحقیق درباره تکنیکهای فیشینگ برای تحویل بدافزار، درخواست راهنمایی برای حرکت جانبی، جستجوی پشتیبانی فنی برای زیرساخت C2 پس از نفوذ (Post Exploit) و استفاده از Gemini برای استخراج داده‌ها.

این مهاجم علاوه بر سیستمهای Windows، از Gemini برای پشتیبانی از مراحل مختلف نفوذ در سطوحی استفاده کرده که آشنایی چندانی با اونا نداشته، از جمله زیرساخت ابری (Cloud)، vSphere و Kubernetes. در یکی از موارد، مهاجم به توکنهای AWS برای EC2 دسترسی داشته و از Gemini برای یادگیری نحوه استفاده از توکنهای موقت جلسه استفاده کرده تا احتمالا دسترسی عمیق‌ تر یا سرقت داده از محیط قربانی رو تسهیل کنه. در یک مورد دیگه، از Gemini برای شناسایی سیستمهای Kubernetes و تولید دستورات جهت شمارش کانتینرها و پادها (Pods) کمک گرفته. همچنین شواهدی از تحقیقات این مهاجم درباره دریافت مجوزهای سطح میزبان در macOS مشاهده شده که نشان میده، روی تکنیکهای فیشینگ برای سیستم مک تمرکز داره.

این فعالیتها مشابه یافته‌ های ژانویه هستن که نشان میداد مهاجمان از Gemini برای افزایش بهره‌وری استفاده میکنن نه خلق قابلیتهای کاملا جدید. گوگل داراییهای مرتبط با این مهاجم رو غیرفعال کرده و تیم Google DeepMind هم با استفاده از این داده‌ها، سیستمهای حفاظتی و مدل Gemini رو تقویت کرده تا از همکاری اون با چنین حملاتی در آینده جلوگیری بشه.

شکل زیر سوء استفاده این بازیگر تهدید مظنون به ارتباط با چین از Gemini، در طول چرخه عمر حمله رو نشان میده.

 

 

سوءاستفاده بازیگران کره شمالی از Gemini در چرخه کامل حمله:

بازیگران تهدید وابسته به جمهوری دموکراتیک خلق کره (DPRK) همچنان از ابزارهای هوش مصنوعی مولد برای پشتیبانی از عملیات در تمام مراحل چرخه حمله استفاده میکنن. این اقدامات در راستای تلاشهای اونا برای سرقت ارز دیجیتال و تأمین مالی حکومت کره شمالی است.

در عملیات اخیر، گروه UNC1069 (با نام دیگر MASAN) از Gemini برای تحقیق درباره مفاهیم رمزارز و همچنین شناسایی مکان داده‌ های برنامه کیف‌ پول کاربران رمزارز استفاده کرده. این گروه که بدلیل کمپین های سرقت رمزارز از طریق مهندسی اجتماعی شناخته میشن، معمولا از موضوعاتی مانند نگهداری سیستم یا جمع‌آوری اطلاعات لاگین کاربران برای فریب استفاده میکنن.

علاوه بر این، مهاجم با کمک Gemini محتوای فریبنده و پیامهایی مرتبط با رمزارز تولید کرده تا در کمپینهای فیشینگ و مهندسی اجتماعی مورد استفاده قرار بگیره. از جمله، Gemini برای اونا متن هایی به زبان اسپانیایی در قالب بهانه‌ های کاری یا درخواست تغییر زمان جلسه تولید کرده تا بتونن موانع زبانی رو دور زده و دامنه اهداف خودشون رو گسترش بدن.

در مراحل بعدی این کمپین ، گروه UNC1069 سعی کرده از Gemini برای نوشتن کدهای سرقت رمزارز و همچنین ساخت دستورالعملهای جعلی، با ظاهر بروزرسانی نرم‌افزار، برای سرقت اعتبارنامه ی کاربران استفاده کنه. گوگل اکانت مرتبط با این فعالیت رو غیرفعال کرده.

این فعالیتها مشابه یافته‌ های قبلی گوگل در ژانویه هستن. گوگل با غیرفعال کردن داراییهای مرتبط با این گروه و همکاری با DeepMind برای تقویت مدل و سیستمهای ایمنی Gemini، اقداماتی برای جلوگیری از تکرار چنین سوءاستفاده‌ هایی انجام داده.

 

استفاده از دیپ‌فیک‌:

علاوه بر سوء استفاده گروه UNC1069 از Gemini، تیم GTIG اخیرا مشاهده کرده که این گروه از تصاویر و ویدیوهای دیپ‌فیک برای جعل هویت افراد فعال در صنعت رمزارز استفاده کرده. این کار بعنوان بخشی از کمپین های مهندسی اجتماعی انجام شده تا در نهایت بکدوری با نام BIGMACHO رو به سیستم قربانیان منتقل کنن. در این کمپین، قربانیان تشویق میشدن تا نسخه جعلی “Zoom SDK” رو دانلود و نصب کنن.

شکل زیر نحوه ی سوء استفاده بازیگر تهدید کره شمالی از Gemini برای پشتیبانی از عملیات خودشون رو نشان میده.

 

 

تلاش برای توسعه قابلیتهای جدید با کمک هوش مصنوعی:

گروه UNC4899 (با نام دیگر PUKCHONG) از کره شمالی، که بخاطر حملات زنجیره تأمین (Supply Chain Compromise) شناخته میشن، از Gemini برای اهداف مختلفی استفاده کرده از جمله: توسعه کد، تحقیق درباره اکسپلویتها و بهبود ابزارهای نفوذ خودشون.

تحقیقات این گروه درباره آسیب‌پذیریها و توسعه اکسپلویت نشان میده که احتمالا در حال توسعه تواناییهایی برای هدف قرار دادن دستگاههای Edge و مرورگرهای مدرن هستن. گوگل اکانتهای مرتبط با این گروه رو هم غیرفعال کرده.

شکل زیر نحوه ی سوء استفاده ی هکرهای کره شمالی از Gemini، در چرخه ی حملاتشون رو نشان میده.

 

 

بدست آوردن داده: تلاش برای توسعه‌ی یک عامل پردازش داده:

استفاده‌ی گروه APT42 (یک گروه تحت حمایت دولت ایران) از Gemini نشان‌ دهنده‌ی تمرکز این گروه بر ساخت کمپینهای فیشینگ موفق است. در فعالیتهای اخیر، APT42 از قابلیتهای تولید و ویرایش متن در Gemini، برای ساخت محتوای مرتبط با کمپینهای فیشینگ استفاده کرده. این گروه اغلب با جعل هویت افراد متعلق به سازمانهای معتبر (مانند اندیشکده‌ های معروف) اقدام میکنه و از طعمه‌ هایی مانند موضوعات مربوط به فناوریهای امنیتی، دعوتنامه برای رویدادها، یا مباحث ژئوپلیتیکی استفاده میکنه.

این گروه همچنین از Gemini به عنوان یک ابزار ترجمه برای مقالات و پیامهایی با واژگان تخصصی، برای انجام تحقیقات عمومی، و برای ادامه‌ی تحقیقات خودش پیرامون دفاع اسرائیل استفاده کرده.

همچنین، APT42 سعی کرده با سوء استفاده از Gemini، یک عامل پردازش داده (Data Processing Agent) توسعه بده و تستش کنه. این عامل، درخواستهای زبان طبیعی (Natural Language) رو به کوئری های SQL تبدیل میکرد تا از داده‌های شخصی حساس، اطلاعاتی استخراج کنه. عامل تهدید برای انجام کوئری های پیچیده، مانند ارتباط دادن یک شماره تلفن به صاحبش، ردیابی الگوهای سفر افراد، یا ایجاد لیستی از اشخاص بر اساس ویژگیهای مشترک، طرحهای داده‌ای (schema) متعددی رو به Gemini ارائه داده بود. گوگل اکانتهای این بازیگر تهدید رو غیرفعال کرده.

این فعالیتها مشابه یافته‌ های ژانویه‌ی گذشته هستن که نشان میده مهاجمان از Gemini بیشتر برای بهره‌وری استفاده میکنن تا قابلیتهای جدید و نوآورانه. گوگل داراییهای مرتبط با این فعالیتها رو غیرفعال کرده و تیم Google DeepMind هم با استفاده از این یافته ها، محافظتهای خودش رو در برابر چنین سوءاستفاده‌ هایی تقویت کرده. مشاهدات بدست‌ اومده، هم برای بهبود طبقه بندی ها و هم خود مدل استفاده شده تا از این پس، مدل بتونه از کمک به چنین حملاتی خودداری کنه.

شکل زیر نحوه ی سوء استفاده APT42 از Gemini برای پشتیبانی از عملیاتش رو نشون میده.

 

 

توسعه‌ی کد: توسعه‌ی C2 و پشتیبانی از مبهم‌ سازی:

مهاجمان سایبری همچنان در حال سازگار کردن ابزارهای هوش مصنوعی مولد برای ارتقاء فعالیتهای خودشون هستن و تلاش دارن تاکتیکها، تکنیکها و رویه‌های خودشون (TTPs) رو با سرعت و حجم بالاتری گسترش بدن. برای بازیگران ماهر، ابزارهای هوش مصنوعی مولد چارچوبی مفید فراهم میکنن، مشابه استفاده از Metasploit یا Cobalt Strike در فعالیتهای تهدید سایبری. این ابزارها همچنین به مهاجمان سطح پایینتر این امکان رو میدن که ابزارهای پیشرفته بسازن، تکنیکهای موجود رو به‌ سرعت ادغام کنن، و بدون نیاز به مهارت بالا یا تسلط زبانی، اثربخشی کمپینهای خودشون رو بهبود بدن.

در طول آگوست ۲۰۲۵، تیم GTIG فعالیتهایی رو مرتبط با گروه APT41 (تحت حمایت جمهوری خلق چین) مشاهده کرده که از Gemini برای کمک در توسعه‌ی کد استفاده کردن. این گروه قبلا نشان داده بود که سیستم‌ عاملهای مختلف رو در دستگاههای موبایل و دسکتاپ هدف میگیره و از مهندسی اجتماعی برای نفوذ استفاده میکنه.

بطور خاص، این گروه از انجمنهای عمومی آنلاین برای جذب قربانیان به زیرساختهای میزبان اکسپلویت و ترغیب اونا به نصب برنامه‌ های موبایل مخرب استفاده کردن. برای پشتیبانی از کمپینهای خودشون، این بازیگر تهدید بدنبال دریافت پشتیبانی فنی برای کدهای ++C و Golang بود تا چند ابزار، از جمله یک چارچوب C2 بنام OSSTUN رو توسعه بدن. همچنین مشاهده شده که این گروه از Gemini برای کمک در مبهم‌سازی کد استفاده کردن، با درخواستهایی که به دو کتابخانه‌ی مبهم‌سازی عمومی اشاره داشتن.

شکل زیر نحوه ی سوء استفاده ی APT41 از Gemini رو نشان میده.

 

 

عملیات اطلاعاتی (Information Operations) و Gemini:

GTIG همچنان مشاهده کرده که بازیگران عملیات اطلاعاتی از Gemini برای پژوهش، تولید محتوا و ترجمه استفاده میکنن، که با الگوهای قبلی فعالیت اونا مطابقت داره. گوگل فعالیتهایی رو شناسایی کرده‌ که نشان میده مهاجمان از Gemini برای نوشتن مقالات یا ساخت ابزارهایی برای خودکارسازی بخشهایی از گردش کارشان استفاده میکنن. با این حال، هیچ یک از این مقالات تولید شده در فضای عمومی دیده نشدن و هیچ مدرکی دال بر موفقیت در خودکارسازی جریان کاری اونا یافت نشده. هیچکدام از این تلاشها توانمندی جدید یا مؤثر قابل‌ توجهی برای کمپینهای عملیات اطلاعاتی ایجاد نکرده.

در مورد این کمپینها، هیچ مدرکی از خودکار سازی موفق یا قابلیتهای چشمگیر پیدا نشده. این فعالیتها مشابه یافته‌ های ژانویه است که نشان میده مهاجمان از Gemini بیشتر برای افزایش بهره‌وری استفاده میکنن تا ایجاد قابلیتهای جدید. گوگل داراییهای مربوط به این فعالیتها رو غیرفعال کرده و Google DeepMind از این یافته‌ها برای تقویت محافظت در برابر چنین سوء استفاده‌ هایی استفاده میکنه. این مشاهدات برای بهبود مدل و طبقه بندی ها، مورد استفاده قرار گرفته تا مدل از کمک به این نوع حملات در آینده خودداری کنه.

 

ساخت هوش مصنوعی بصورت ایمن و مسئولانه:

گوگل باور داره که رویکردش به هوش مصنوعی باید هم جسورانه و هم مسئولانه باشه. به این معنا که توسعه‌ی هوش مصنوعی باید طوری انجام بشه که منافع مثبت اون برای جامعه به حداکثر برسه، در حالیکه چالشها و خطرات اون هم مدیریت میشه. بر اساس اصول هوش مصنوعی گوگل، سیستمهای هوش مصنوعی گوگل با اقدامات امنیتی قوی و محافظهای ایمنی سختگیرانه طراحی میشن. گوگل بطور مداوم امنیت و ایمنی مدلهای خودش رو تست و بهبود میده.

راهنماها و سیاستهای ممنوعیت استفاده از ابزارهای هوش مصنوعی مولد گوگل، بر ایمنی و استفاده‌ی مسئولانه تأکید دارن. فرآیند توسعه‌ی سیاستهای گوگل شامل شناسایی روندهای نوظهور، تفکر جامع و طراحی با محوریت ایمنی است. گوگل بطور مداوم اقدامات حفاظتی رو در محصولات خودش تقویت میکنه تا از کاربران در سراسر جهان در مقیاس وسیع محافظت بشه.

در گوگل، از اطلاعات تهدید (Threat Intelligence) برای مختل کردن عملیات مهاجمان استفاده میشه. گوگل سوء استفاده از محصولات، خدمات، کاربران و پلتفرمهای خودش، از جمله فعالیتهای مخرب سایبری تحت حمایت دولتها رو بررسی کرده و در صورت لزوم با محجریان قانون همکاری میکنه.

علاوه بر این، یافته‌های گوگل از مقابله با این سوء استفاده‌ها به چرخه‌ی توسعه‌ی محصول برگردونده میشه تا امنیت مدلهای هوش مصنوعی ارتقاء پیدا کنه. این تغییرات، چه در سطح طبقه بندی ها و چه در سطح خود مدل، برای حفظ چابکی در دفاع و جلوگیری از سوء استفاده‌های بیشتر ضروری‌ هستن.

Google DeepMind هم مدلهای تهدید مخصوص هوش مصنوعی مولد رو طراحی میکنه تا آسیب‌پذیریهای احتمالی رو شناسایی کنه و با استفاده از روشهای ارزیابی و آموزش جدید، جلوی سوءاستفاده رو بگیره. همچنین Google DeepMind در حال استقرار فعالانه‌ی دفاعهای خودکار در سیستمهای هوش مصنوعی است، همراه با ابزارهای پایش و سنجش که شامل یک چارچوب ارزیابی پیشرفته برای شبیه‌ سازی خودکار حملات تزریق غیرمستقیم (Indirect Prompt Injection) هستش.

تیم‌های توسعه‌ی هوش مصنوعی و اعتماد و ایمنی هم با تیمهای امنیت، هوش تهدید و مدل‌ سازی، همکاری نزدیکی دارن تا مانع از سوءاستفاده بشن.

پتانسیل هوش مصنوعی، بویژه هوش مصنوعی مولد، بسیار بزرگ هستش. با پیشرفت نوآوری، این صنعت نیاز به استانداردهای امنیتی برای توسعه و استقرار مسئولانه‌ی هوش مصنوعی داره. به همین دلیل، گوگل چارچوب ایمن‌ سازی هوش مصنوعی (SAIF – Secure AI Framework) رو معرفی کرده، یک چارچوب مفهومی برای ایمن‌ سازی سیستمهای هوش مصنوعی.

گوگل همچنین یک جعبه‌ ابزار جامع برای توسعه‌ دهندگان منتشر کرده‌ که شامل منابع و راهنماهایی برای طراحی، ساخت و ارزیابی مسئولانه‌ی مدلهای هوش مصنوعی است. در این مجموعه، بهترین شیوه‌ها برای پیاده‌سازی محافظها، ارزیابی ایمنی مدل، و انجام Red Teaming جهت آزمون و ایمن‌ سازی سیستمهای هوش مصنوعی ارائه شده.

گوگل همچنین بطور مستمر در تحقیقات هوش مصنوعی سرمایه‌گذاری میکنه تا اطمینان حاصل بشه هوش مصنوعی به‌ شکل مسئولانه ساخته میشه و از پتانسیل اون برای شناسایی خودکار خطرات استفاده میشه.

سال گذشته، گوگل از عاملی به نام Big Sleep رونمایی کرد، یک عامل هوش مصنوعی که توسط Google DeepMind و Project Zero توسعه داده شده و بطور فعال به جستجوی آسیب‌پذیریهای ناشناخته در نرم‌افزارها میپردازه. Big Sleep تاکنون اولین آسیب‌پذیری واقعی خودش رو در دنیای واقعی کشف کرده و همچنین در شناسایی یک آسیب‌پذیری که قرار بود به‌ زودی توسط مهاجمان مورد سوءاستفاده قرار بگیره، نقش کلیدی داشته، که تیم GTIG تونسته اون رو پیش از اکسپلویت مسدود کنه.

گوگل همچنین در حال تست هوش مصنوعی برای یافتن و اصلاح آسیب‌پذیریها است. اخیراً از CodeMender رونمایی کرده، یک عامل تستی مبتنی بر هوش مصنوعی که با استفاده از قابلیت استدلال پیشرفته‌ی مدلهای Gemini، آسیب‌پذیریهای بحرانی کد رو بصورت خودکار اصلاح میکنه.

 

 

منبع

 

اشتراک در شبکه های اجتماعی :

Facebook
Twitter
Pinterest
LinkedIn
In اخبار بازیگران تهدید مقالات هوش مصنوعیIn APT , Gemini , GTIG , گوگل

راهبری نوشته

عشق، باج افزار، زندان
بررسی نسخه ی OWASP Top 10 2025

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دسته‌ها

  • Osint
  • آسیب پذیری امنیتی
  • آموزش های ویدیویی
  • آنالیز بدافزار
  • اخبار
  • افشای اطلاعات
  • امنیت وب
  • انتشارات
  • اینترنت اشیاء
  • بازیگران تهدید
  • باگ بانتی
  • پادکست
  • پروژه ها
  • توسعه اکسپلویت
  • تیم آبی
  • تیم قرمز
  • دوره های آموزشی
  • فازینگ
  • کنفرانس ،دوره ، وبینار ، لایو ، CTF
  • لیست های ویژه
  • ماشین آسیب پذیر
  • مجله
  • مصاحبه، داستان هکرها
  • مقالات
  • مهندسی معکوس نرم افزار
  • هوش مصنوعی

پست های مرتبط

  • آسیب پذیری امنیتی
  • اخبار
  • مقالات
seyyid
On مهر 1, 1402

بررسی هفتگی آسیب پذیری های منتشر شده در ZDI – (26 تا 31 شهریور)

  • آنالیز بدافزار
  • اخبار
  • بازیگران تهدید
  • مقالات
seyyid
On مهر 28, 1402مهر 28, 1402

گروه هکری ایرانی Crambus و حفظ دسترسی 8 ماهه روی یه تارگت

  • اخبار
  • کنفرانس ،دوره ، وبینار ، لایو ، CTF
seyyid
On بهمن 18, 1401فروردین 28, 1402

کنفرانس BlueHat 2023

  • آسیب پذیری امنیتی
  • اخبار
  • امنیت وب
  • انتشارات
  • باگ بانتی
  • پروژه ها
  • ماشین آسیب پذیر
seyyid
On شهریور 13, 1402

نسخه وردپرس آسیب پذیر برای آگوست 2023 منتشر شد

درباره ما

بعد از چندین سال فعالیت تو حوزه امنیت سایبری و تولید محتوا در شبکه های اجتماعی ، بالاخره تصمیم گرفتیم تا یه سایت راه اندازی کنیم و مطالب رو ساده تر ، در یک محیط منسجم و طبقه بندی شده به دست مخاطب برسونیم. امیدوارم که قدمی در راستای رشد امنیت سایبری کشورمون برداشته باشیم.

تگ ها

0day APT command injection Deserialization of Untrusted Data Directory Traversal FBI Fortinet Heap buffer overflow kali LockBit Memory Corruption nuclei out-of-bounds write Out of bounds read Patch Tuesday PWN2OWN Stack Buffer overflow type confusion use after free vulnerable wordpress XSS ZDI vulnerability آموزش اکسپلویت نویسی ارز دیجیتال اندروید اپل اکسپلویت باج افزار تلگرام زیرودی سیسکو فارنزیک فورتی نت فیشینگ لاک بیت لینوکس مایکروسافت هوش مصنوعی وردپرس وردپرس آسیب پذیر ویندوز پلاگین کالی کروم گوگل

شبکه های اجتماعی

    • اینستاگرم
    • تلگرام
    • توییتر
    • گیت‌هاب
    • یوتیوب
    • لینکداین
      کپی مطالب با ذکر منبع بلامانع است | 1401-1404