مدل GPT-4 از آسیب‌پذیری‌ تراشه‌ها برای ایجاد حملات سایبری استفاده می‌کند

در تحقیق جدیدی که دانشگاه Urbana-Champaign (UIUC) منتشر کرده، مدل GPT-4 توانسته است با استفاده از توضیحات ثبت شده آسیب‌پذیری‌های امنیتی که در پایگاه داده عمومی CVE ،87 درصد از آن‌ها را با موفقیت مورد حمله قرار دهد.

به‌گزارش تک‌ناک‌، این در حالی است که سایر مدل‌های زبان بزرگ و اسکنرهای امنیتی تخصصی قادر به استفادت موفق از این آسیب‌پذیری‌ها نبودند. نگرانی‌ها از این قابلیت‌های GPT-4 وجود دارد، اما به نظر می‌رسد که هنوز قادر به شناسایی و استفاده از آسیب‌پذیری‌های امنیتی ناشناخته نیست.

همه مدل‌های زبان دیگری که برای این مقاله آزمایش شدند (GPT-3.5، OpenHermes-2.5-Mistral-7B، Llama-2 Chat (70B) و غیره)، و همچنین اسکنرهای آسیب‌پذیری ساخته‌شده برای این منظور، حتی یک بار نتوانستند از آسیب‌پذیری‌های ارائه‌شده سوء استفاده کنند.

برای آزمایش، به LLMها آسیب‌پذیری‌های «یک‌روزه» (به این دلیل نامگذاری شده‌اند که به اندازه‌ای خطرناک هستند که نیاز به وصله امنیتی در روز بعد از کشف شدن دارند) داده شد. متخصصان امنیت سایبری و هکرها، کل حرفه خود را بر اساس یافتن (و رفع) آسیب‌پذیری‌های یک‌روزه بنا کرده‌اند. هکرهای کلاه سفید به عنوان آزمایشگر نفوذ توسط شرکت‌ها استخدام می‌شوند تا با کشف این نقاط ضعف امنیتی از هکرها، پیشی بگیرند.

GPT-4 تنها توانست به آسیب‌پذیری‌های شناخته‌شده با استفاده از  توضیحات عرضه شده در پایگاه داده CVE حمله کند. این مدل تنها در شناسایی و سپس سوء استفاده از یک باگ، 7 درصد نرخ موفقیت داشت. به عبارت دیگر، کلید یک هک آخرالزمان (هنوز) در دسترس کسی نیست که بتواند یک دستورالعمل خوب برای ChatGPT بنویسد. با این حال، GPT-4 به دلیل توانایی‌اش در نه تنها درک آسیب‌پذیری‌ها به صورت تئوری، بلکه همچنین انجام خودکار مراحل حمله سایبری از طریق یک چارچوب خودکارسازی، همچنان نگران‌کننده است.

GPT-4  در حال حاضر در طراحی حمله سایبری بهتر از انسان ها است. این مقاله بیان می کند که با فرض اینکه به یک متخصص امنیت سایبری ساعتی 50 دلار حقوق داده شود، استفاده از یک عامل LLM [برای ایجاد حمله هکری به آسیب‌پذیری‌های امنیتی] در حال حاضر 2.8 برابر ارزان‌تر از نیروی کار انسانی است. همچنین عاملان LLM بر خلاف نیروی کار انسانی به راحتی قابل ارتقا هستند.” این مقاله همچنین تخمین می‌زند که LLMهای آینده – مانند GPT-5 آینده – تنها در این توانایی‌ها و شاید در مهارت‌های کشف نیز قوی‌تر خواهند شد. با توجه به تأثیرات عظیم آسیب‌پذیری‌های گذشته مانند Spectre و Meltdown که هنوز در ذهن دنیای فناوری وجود دارد، این یک فکر هوشیارکننده است.

با ادامه بازی انسان ها  با هوش مصنوعی، جهان همچنان به طور غیرقابل برگشتی تغییر خواهد کرد. OpenAI به طور خاص از نویسندگان مقاله درخواست کرد که دستورات مورد استفاده خود را برای این آزمایش به صورت عمومی منتشر نکنند و  نویسندگان موافقت کردند و گفتند که این دستورات را تنها “در صورت درخواست” در دسترس قرار خواهند داد..

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار جدید تک‌ناک را از دست ندهید.