در عصری دیجیتالی که آسیب‌پذیری‌های نرم‌افزاری می‌توانند ظرف چند ساعت شرکت‌ها را از پا درآورند و زیرساخت‌های حیاتی را به خطر بیندازند، پروژه‌ی جدید OpenAI با نام Aardvark گامی بلند در جهت رفع یکی از قدیمی‌ترین ضعف‌های فناوری ــ یعنی خطای انسانی ــ برداشته است.

Aardvark یک عامل هوش مصنوعی امنیت سایبری (AI Cybersecurity Agent) است که برای کشف، آزمایش و حتی پیشنهاد راه‌حل برای آسیب‌پذیری‌های نرم‌افزاری طراحی شده تا پیش از آنکه هکرها فرصت سوءاستفاده پیدا کنند، خطرات را شناسایی و خنثی کند.


Aardvark؛ نماینده‌ی نسل جدید «سامانه‌های عامل‌محور» (Agentic Systems)

این پروژه که در اواخر اکتبر ۲۰۲۵ معرفی شد، به گفته‌ی OpenAI آغازگر نسلی تازه از سامانه‌هایی است که «عامل‌محور» نامیده می‌شوند. بر خلاف مدل‌های هوش مصنوعی سنتی که صرفاً به ورودی کاربر پاسخ می‌دهند، این عوامل به‌صورت خودگردان (Autonomous) عمل می‌کنند: محیط‌های پیچیده را پیمایش می‌کنند، آزمایش انجام می‌دهند، از ابزارهای مختلف استفاده می‌کنند و برای رسیدن به هدفی باز و چندمرحله‌ای تصمیم‌گیری می‌کنند.

در مورد Aardvark، این هدف ایفای نقش یک پژوهشگر امنیتی خستگی‌ناپذیر است که مستقیماً در فرآیند توسعه نرم‌افزار حضور دارد.


نحوه‌ی عملکرد Aardvark

Aardvark بر پایه‌ی مدل پیشرفته‌ی GPT-5 ساخته شده و به‌طور مستقیم با محیط‌های توسعه‌دهندگان ادغام می‌شود. این سامانه قادر است مخازن Git، تاریخچه‌ی commitها و تغییرات زنده‌ی کد را به‌صورت بلادرنگ بررسی کند.

برخلاف ابزارهای کلاسیک که صرفاً با بانک‌های اطلاعاتی از آسیب‌پذیری‌های شناخته‌شده کار می‌کنند، Aardvark قادر است منطق کد را تحلیل کند.
این عامل ابتدا یک «مدل تهدید» (Threat Model) از پروژه ایجاد می‌کند — یعنی درک می‌کند نرم‌افزار چه کاری باید انجام دهد، داده‌ها از کجا وارد و خارج می‌شوند و یک مهاجم چگونه ممکن است از این مسیرها سوءاستفاده کند. سپس در محیط‌های شبیه‌سازی‌شده (sandbox) تلاش می‌کند آسیب‌پذیری‌ها را خودش فعال کند تا از واقعی بودن خطر اطمینان یابد، و آنگاه آن را به مهندسان گزارش می‌دهد.

زمانی که نقصی واقعی پیدا می‌شود، Aardvark حتی می‌تواند وصله‌ی اصلاحی (Patch) را پیشنهاد دهد، همراه با توضیحی فنی درباره‌ی اینکه چگونه این تغییر خطر را کاهش می‌دهد. توسعه‌دهندگان نیز می‌توانند این اصلاحات را پس از بازبینی، از طریق روال کاری معمول خود ادغام کنند. به این ترتیب، Aardvark به جای جایگزینی انسان‌ها، به‌صورت طبیعی در زنجیره‌ی کاری آن‌ها ادغام می‌شود.


چرا Aardvark اهمیت دارد؟

اهمیت این نوآوری در زمان فعلی بیش از هر زمان دیگری احساس می‌شود. طبق داده‌های OpenAI، تعداد آسیب‌پذیری‌های ثبت‌شده در فهرست جهانی CVE در سال ۲۰۲۴ از ۴۰ هزار مورد فراتر رفته است — بیش از دو برابر رقم پنج سال قبل. هر یک از این موارد می‌تواند دری به روی بدافزارها، باج‌افزارها یا نفوذهای اطلاعاتی باز کند.

برای بیشتر شرکت‌ها، به‌ویژه آن‌هایی که کدهای گسترده یا تیم امنیتی محدودی دارند، بازرسی دستی چنین حجم عظیمی از کد تقریباً غیرممکن است. Aardvark دقیقاً برای پر کردن همین خلأ طراحی شده است: یک لایه امنیتی هوشمند، مقیاس‌پذیر و همواره فعال که بدون نیاز به نظارت مداوم انسانی، به‌طور مداوم یاد می‌گیرد و انطباق می‌یابد.

OpenAI همچنین اعلام کرده که Aardvark به‌صورت رایگان برای مخازن متن‌باز غیرتجاری نیز خدمات اسکن امنیتی ارائه می‌دهد — اقدامی که می‌تواند زنجیره‌ی تأمین نرم‌افزار اینترنت را، که به پروژه‌های متن‌باز وابسته است، به‌طور قابل توجهی ایمن‌تر کند.


انسان در حلقه‌ی نظارت (Human-in-the-loop)

با وجود توانایی‌های خودکار، Aardvark قرار نیست جایگزین پژوهشگران انسانی شود. هر آسیب‌پذیری کشف‌شده و هر وصله‌ی پیشنهادی همچنان باید توسط انسان بررسی شود.
OpenAI تأکید دارد که نظارت انسانی بخش اساسی طراحی Aardvark است — برای حفظ درک زمینه، جلوگیری از مثبت‌های کاذب و اطمینان از این‌که خود هوش مصنوعی با اصلاحاتش خطای جدیدی ایجاد نکند.

آزمایش‌های داخلی OpenAI نتایج امیدوارکننده‌ای داشته‌اند: Aardvark توانسته در مقایسه با داده‌های استاندارد (موسوم به «مخازن طلایی»)، ۹۲٪ آسیب‌پذیری‌های شناخته‌شده را به‌درستی شناسایی و بازتولید کند؛ رقمی چشمگیر که نشان از توان بالای آن در شناسایی تهدیدات واقعی دارد.


ریسک‌ها و آینده‌ی پیش رو

هرچند Aardvark نویدبخش است، اما پرسش‌های تازه‌ای درباره‌ی اعتماد، مسئولیت‌پذیری و امنیت خود عامل‌ها ایجاد می‌کند. اگر هوش مصنوعی بتواند راه نفوذها را پیدا کند، آیا ممکن است از همین قابلیت به‌صورت سوءاستفاده‌آمیز استفاده شود؟
OpenAI می‌گوید Aardvark فقط در محیط‌های ایزوله و ایمن (sandboxed) فعالیت می‌کند و قادر به انتقال داده یا اجرای کد خارج از محدوده‌ی مجاز نیست. با این حال، مفهوم یک «عامل امنیت سایبری تهاجمی» بی‌تردید توجه نهادهای نظارتی و کارشناسان امنیتی را جلب خواهد کرد.

چالش دیگر، فرهنگ سازمانی است: اعتماد تیم‌های توسعه و امنیت به سیستمی خودکار برای بررسی حساس‌ترین بخش‌های کد، نیازمند زمان و پذیرش تدریجی است.

با وجود این، اگر Aardvark موفق شود، می‌تواند آغازگر تغییری بنیادین در امنیت سایبری باشد — از دفاع واکنشی به پیشگیری هوشمندانه. به جای آن‌که تحلیلگران انسانی به‌دنبال تهدیدات تازه بدوند، شاید به‌زودی شاهد عوامل خودکار هوش مصنوعی باشیم که بی‌صدا در پس‌زمینه کدهای جهان گشت می‌زنند و پیش از وقوع خطر، آسیب‌پذیری‌ها را ترمیم می‌کنند.


جمع‌بندی

Aardvark فقط یک دستیار دیگر مبتنی بر هوش مصنوعی نیست، بلکه آزمایشی برای سپردن اختیار، مسئولیت و مأموریت به هوش مصنوعی است — مأموریتی برای حفاظت از امنیت جهانی کد.
این پروژه نمادی از آینده‌ای است که در آن امنیت سایبری از رویکرد تدافعی و واکنشی، به مدلی پیش‌دستانه و خودکار تغییر می‌کند؛ آینده‌ای که در آن، ماشین‌ها می‌توانند سریع‌تر از تهدیدات بیاموزند، پیش‌بینی کنند و مقابله کنند.

در نبرد همیشگی میان مهاجمان و مدافعان، شاید Aardvark نخستین نشانه‌ی تغییر موازنه‌ی قدرت به نفع «مدافعان» باشد.

source

توسط expressjs.ir