ابزار گوگل، Big Sleep، 20 آسیب پذیری نرم افزاری را پیدا می کند

نمای شماتیک از عملکرد Big Sleep در شناسایی آسیب‌پذیری‌های نرم‌افزاری با کمک هوش مصنوعی

گوگل با پیوند دادن به متن: [AI-led security research](https://autogpt.net/google-wants-search-to-be-more-like-an-ai-assistant-in-2025/)” target=”_blank” rel=”noreferrer noopener”> اعلام کرده است که سیستم جدید خود را ایجاد کرده است. به این ترتیب، این ابزار از این قابلیت‌های یادگیری استفاده می‌کند.

این خبر در روز دوشنبه توسط مدیر بخش امنیتی Google، Heather Adkins اعلام شد.

وی تایید کرد که آسیب‌پذیری‌ها توسط سیستم هوش مصنوعی و بدون کمک انسانی شناسایی شده است.

Big Sleep پروژه‌ای است که با همکاری DeepMind ، بخش هوش مصنوعی گوگل و تیم Zero (که به‌خاطر تیم‌های امنیتی زبده‌اش مشهور است) توسعه یافته است.

این همکاری، مرحله جدیدی از تحول هوش مصنوعی در امنیت سایبری را نشان می‌دهد.

Big Sleep چطور کار می‌کند؟

Big Sleep با استفاده از یک مدل زبانی بزرگ (LLM) نرم‌افزارها را برای شناسایی آسیب‌های بالقوه اسکن می‌کند. این برنامه کدها را تحلیل می‌کند، الگوها را شناسایی می‌کند و آسیب‌پذیری‌ها را نشانه گذاری می‌کند.

با این حال، قبل از گزارش هر یافته‌ای، یک متخصص انسانی نتایج هوش مصنوعی را بررسی می‌کند تا اطمینان حاصل شود که گزارش با استانداردهای کیفی گوگل مطابقت دارد.

به گفته‌ی Kimberly Samra سخنگوی گوگل، هر آسیب‌پذیری «توسط عامل هوش مصنوعی بدون دخالت انسان پیدا و بازتولید شده است».

ورودی انسانی فقط در مرحله نهایی و برای تایید درستی اتفاق می‌افتد. این سیستم، که انسان را نیز در بر می‌گیرد، تضمین می‌کند که آسیب‌پذیری‌های گزارش شده هم قانونی و هم قابل‌اجرا هستند.

Google DeepMind
Image Credits: Google

اشکالات

اولین یافته‌های موفقیت‌آمیز Big Sleep شامل نقص‌هایی در FFmpeg، یک کتابخانه پردازش صدا و ویدیو پرکاربرد، و ImageMagick، ابزاری رایج برای ویرایش و تبدیل تصاویر است.

هر دوی این ابزارها بخش مهمی از بسیاری از سیستم‌ها و برنامه‌ها در وب هستند. با این حال، گوگل ماهیت خاص این نقص‌ها را به اشتراک نگذاشته است.

این شرکت پس از صدور اصلاحات لازم توسط متولیان نرم‌افزار، جزئیات بیشتری را [منتشر می‌کند](https://googleprojectzero.blogspot.com/2025/07/reporting-transparency.html). این یک رویه استاندارد در اعلام مسئولانه است.

واکنش صنعت

این اعلامیه توجه زیادی را از سراسر صنعت فناوری به خود جلب کرده است.

Royal Hansen، معاون مهندسی گوگل، اعلام کرد که این کشف «مرز جدیدی را در کشف خودکار آسیب‌پذیری‌ها» نشان می‌دهد.

چندین ابزار دیگر شکار باگ مبتنی بر هوش مصنوعی از قبل وجود دارند، مانند RunSybil و XBOW.

همه این ابزارها از یک الگوی مشابه پیروی می‌کنند. هوش مصنوعی باگ‌های احتمالی را شناسایی می‌کند، در حالی که متخصصان انسانی گزارش‌ها را تأیید و ارسال می‌کنند.

متخصصان بر این باورند که این رویکرد ترکیبی، یعنی هوش مصنوعی برای کشف، و انسان‌ها برای تأیید، احتمالاً آینده نزدیک تحقیقات امنیتی را تعریف خواهد کرد.

مزایا و چالش‌های شکار باگ با هوش مصنوعی

هوش مصنوعی می‌تواند کدها را سریع‌تر از انسان‌ها اسکن کند. آنها همچنین می‌توانند الگوهای ظریفی را شناسایی کنند که ممکن است از دید افراد پنهان بمانند.

با این حال، برخی از توسعه دهندگان گزارش‌های مثبت کاذب، یعنی گزارش‌های باگ‌هایی که معتبر به نظر می‌رسند اما مشخص می‌شود که نادرست هستند، را گزارش می‌کنند.

این مشکل مختص Big Sleep نیست و سایر ابزارهای هوش مصنوعی را نیز تحت تاثیر قرار می‌دهد. در برخی موارد، توسعه‌دهندگان این گزارش‌ها را «لجن هوش مصنوعی» شکار باگ نامیده‌اند.

Vlad Ionescu، یکی از بنیانگذاران و مدیر ارشد فناوری RunSybil، نگرانی‌هایی را مطرح کرده است. او گفت: «ما چیزهای زیادی دریافت می‌کنیم که شبیه طلا هستند، اما در واقع فقط مزخرف هستند.»

این هشدارهای مثبت کاذب می‌تواند باعث هدر رفتن وقت و منابع شود. به همین دلیل است که نظارت انسانی هنوز هم بسیار مهم است.

Previous Article

Google Veo 3 | بهترین هوش مصنوعی برای ویدیو | یافتن ابزارها و برنامه های هوش مصنوعی

Next Article

چت‌ال‌ال‌ام | بهترین هوش مصنوعی برای سازمان‌ها | یافتن ابزارها و برنامه‌های هوش مصنوعی