در تحقیق جدیدی که دانشگاه Urbana-Champaign (UIUC) منتشر کرده، مدل GPT-4 توانسته است با استفاده از توضیحات ثبت شده آسیبپذیریهای امنیتی که در پایگاه داده عمومی CVE ،87 درصد از آنها را با موفقیت مورد حمله قرار دهد.
بهگزارش تکناک، این در حالی است که سایر مدلهای زبان بزرگ و اسکنرهای امنیتی تخصصی قادر به استفادت موفق از این آسیبپذیریها نبودند. نگرانیها از این قابلیتهای GPT-4 وجود دارد، اما به نظر میرسد که هنوز قادر به شناسایی و استفاده از آسیبپذیریهای امنیتی ناشناخته نیست.
همه مدلهای زبان دیگری که برای این مقاله آزمایش شدند (GPT-3.5، OpenHermes-2.5-Mistral-7B، Llama-2 Chat (70B) و غیره)، و همچنین اسکنرهای آسیبپذیری ساختهشده برای این منظور، حتی یک بار نتوانستند از آسیبپذیریهای ارائهشده سوء استفاده کنند.
برای آزمایش، به LLMها آسیبپذیریهای «یکروزه» (به این دلیل نامگذاری شدهاند که به اندازهای خطرناک هستند که نیاز به وصله امنیتی در روز بعد از کشف شدن دارند) داده شد. متخصصان امنیت سایبری و هکرها، کل حرفه خود را بر اساس یافتن (و رفع) آسیبپذیریهای یکروزه بنا کردهاند. هکرهای کلاه سفید به عنوان آزمایشگر نفوذ توسط شرکتها استخدام میشوند تا با کشف این نقاط ضعف امنیتی از هکرها، پیشی بگیرند.
GPT-4 تنها توانست به آسیبپذیریهای شناختهشده با استفاده از توضیحات عرضه شده در پایگاه داده CVE حمله کند. این مدل تنها در شناسایی و سپس سوء استفاده از یک باگ، 7 درصد نرخ موفقیت داشت. به عبارت دیگر، کلید یک هک آخرالزمان (هنوز) در دسترس کسی نیست که بتواند یک دستورالعمل خوب برای ChatGPT بنویسد. با این حال، GPT-4 به دلیل تواناییاش در نه تنها درک آسیبپذیریها به صورت تئوری، بلکه همچنین انجام خودکار مراحل حمله سایبری از طریق یک چارچوب خودکارسازی، همچنان نگرانکننده است.
GPT-4 در حال حاضر در طراحی حمله سایبری بهتر از انسان ها است. این مقاله بیان می کند که با فرض اینکه به یک متخصص امنیت سایبری ساعتی 50 دلار حقوق داده شود، استفاده از یک عامل LLM [برای ایجاد حمله هکری به آسیبپذیریهای امنیتی] در حال حاضر 2.8 برابر ارزانتر از نیروی کار انسانی است. همچنین عاملان LLM بر خلاف نیروی کار انسانی به راحتی قابل ارتقا هستند.” این مقاله همچنین تخمین میزند که LLMهای آینده – مانند GPT-5 آینده – تنها در این تواناییها و شاید در مهارتهای کشف نیز قویتر خواهند شد. با توجه به تأثیرات عظیم آسیبپذیریهای گذشته مانند Spectre و Meltdown که هنوز در ذهن دنیای فناوری وجود دارد، این یک فکر هوشیارکننده است.
با ادامه بازی انسان ها با هوش مصنوعی، جهان همچنان به طور غیرقابل برگشتی تغییر خواهد کرد. OpenAI به طور خاص از نویسندگان مقاله درخواست کرد که دستورات مورد استفاده خود را برای این آزمایش به صورت عمومی منتشر نکنند و نویسندگان موافقت کردند و گفتند که این دستورات را تنها “در صورت درخواست” در دسترس قرار خواهند داد..