گوگل با پیوند دادن به متن: [AI-led security research](https://autogpt.net/google-wants-search-to-be-more-like-an-ai-assistant-in-2025/)” target=”_blank” rel=”noreferrer noopener”> اعلام کرده است که سیستم جدید خود را ایجاد کرده است. به این ترتیب، این ابزار از این قابلیتهای یادگیری استفاده میکند.
این خبر در روز دوشنبه توسط مدیر بخش امنیتی Google، Heather Adkins اعلام شد.
وی تایید کرد که آسیبپذیریها توسط سیستم هوش مصنوعی و بدون کمک انسانی شناسایی شده است.
Big Sleep پروژهای است که با همکاری DeepMind ، بخش هوش مصنوعی گوگل و تیم Zero (که بهخاطر تیمهای امنیتی زبدهاش مشهور است) توسعه یافته است.
این همکاری، مرحله جدیدی از تحول هوش مصنوعی در امنیت سایبری را نشان میدهد.
Big Sleep چطور کار میکند؟
Big Sleep با استفاده از یک مدل زبانی بزرگ (LLM) نرمافزارها را برای شناسایی آسیبهای بالقوه اسکن میکند. این برنامه کدها را تحلیل میکند، الگوها را شناسایی میکند و آسیبپذیریها را نشانه گذاری میکند.
با این حال، قبل از گزارش هر یافتهای، یک متخصص انسانی نتایج هوش مصنوعی را بررسی میکند تا اطمینان حاصل شود که گزارش با استانداردهای کیفی گوگل مطابقت دارد.
به گفتهی Kimberly Samra سخنگوی گوگل، هر آسیبپذیری «توسط عامل هوش مصنوعی بدون دخالت انسان پیدا و بازتولید شده است».
ورودی انسانی فقط در مرحله نهایی و برای تایید درستی اتفاق میافتد. این سیستم، که انسان را نیز در بر میگیرد، تضمین میکند که آسیبپذیریهای گزارش شده هم قانونی و هم قابلاجرا هستند.
اشکالات
اولین یافتههای موفقیتآمیز Big Sleep شامل نقصهایی در FFmpeg، یک کتابخانه پردازش صدا و ویدیو پرکاربرد، و ImageMagick، ابزاری رایج برای ویرایش و تبدیل تصاویر است.
هر دوی این ابزارها بخش مهمی از بسیاری از سیستمها و برنامهها در وب هستند. با این حال، گوگل ماهیت خاص این نقصها را به اشتراک نگذاشته است.
این شرکت پس از صدور اصلاحات لازم توسط متولیان نرمافزار، جزئیات بیشتری را [منتشر میکند](https://googleprojectzero.blogspot.com/2025/07/reporting-transparency.html). این یک رویه استاندارد در اعلام مسئولانه است.
واکنش صنعت
این اعلامیه توجه زیادی را از سراسر صنعت فناوری به خود جلب کرده است.
Royal Hansen، معاون مهندسی گوگل، اعلام کرد که این کشف «مرز جدیدی را در کشف خودکار آسیبپذیریها» نشان میدهد.
چندین ابزار دیگر شکار باگ مبتنی بر هوش مصنوعی از قبل وجود دارند، مانند RunSybil و XBOW.
همه این ابزارها از یک الگوی مشابه پیروی میکنند. هوش مصنوعی باگهای احتمالی را شناسایی میکند، در حالی که متخصصان انسانی گزارشها را تأیید و ارسال میکنند.
متخصصان بر این باورند که این رویکرد ترکیبی، یعنی هوش مصنوعی برای کشف، و انسانها برای تأیید، احتمالاً آینده نزدیک تحقیقات امنیتی را تعریف خواهد کرد.
مزایا و چالشهای شکار باگ با هوش مصنوعی
هوش مصنوعی میتواند کدها را سریعتر از انسانها اسکن کند. آنها همچنین میتوانند الگوهای ظریفی را شناسایی کنند که ممکن است از دید افراد پنهان بمانند.
با این حال، برخی از توسعه دهندگان گزارشهای مثبت کاذب، یعنی گزارشهای باگهایی که معتبر به نظر میرسند اما مشخص میشود که نادرست هستند، را گزارش میکنند.
این مشکل مختص Big Sleep نیست و سایر ابزارهای هوش مصنوعی را نیز تحت تاثیر قرار میدهد. در برخی موارد، توسعهدهندگان این گزارشها را «لجن هوش مصنوعی» شکار باگ نامیدهاند.
Vlad Ionescu، یکی از بنیانگذاران و مدیر ارشد فناوری RunSybil، نگرانیهایی را مطرح کرده است. او گفت: «ما چیزهای زیادی دریافت میکنیم که شبیه طلا هستند، اما در واقع فقط مزخرف هستند.»
این هشدارهای مثبت کاذب میتواند باعث هدر رفتن وقت و منابع شود. به همین دلیل است که نظارت انسانی هنوز هم بسیار مهم است.