IPImen ، Firewall ، NGFirewall-UTM، آیپی ایمن، فایروال ایرانی ، فایروال بومی، یوتی ام بومی، یوتی ام ایرانی، فایروال نسل بعدی ایرانی، فایروال نسل بعدی بومی

کشف توانایی چت‌بات ChatGPT برای نوشتن بدافزار و باج‌افزار

اخبار داغ فناوری اطلاعات و امنیت شبکه

takian.ir chatgpt tricked to write malware when you act as a developer
کارشناسان امنیت سایبری ژاپنی دریافته‌اند که ChatGPT می‌تواند با ایجاد این باور که هوش مصنوعی در حالت توسعه‌دهنده نرم‌افزار قرار دارد، کدی برای بدافزار بنویسد.

مجموعه OpenAI، چت‌بات ChatGPT را در نوامبر ٢٠٢٢ راه اندازی کرد که فقط یک نمونه اولیه بود. این چت‌بات توسط یک مدل یادگیری ماشین هدایت می‌شود که انتظار می‌رود مانند یک انسان، به مخاطب پاسخ دهد.

با‌این‌حال، ChatGPT به گونه‌ای برنامه‌ریزی شده بود که به سوالات خاصی از‌جمله محتوای رده بزرگسالان، سوالات جنسی یا فعالیت‌های مخرب را پاسخ ندهد.

از زمان انتشار آن، مجرمان سایبری واکنش‌های آن را بررسی کرده و سعی در دستکاری و استفاده از آن برای مقاصد مجرمانه داشتند. هنوز نمی‌توان میزان ریسکی را که ChatGPT می‌تواند ایجاد کند، پیش‌بینی کرد.

تاکاشی یوشیکاوا، یک تحلیلگر در Mitsui Bussan Secure Directions، می‌گوید : "این یک تهدید برای جامعه است که یک ویروس در چند دقیقه در‌حالی‌که صرفا به زبان ژاپنی صحبت می‌کنید ایجاد شود. من از توسعه‌دهندگان هوش مصنوعی می‌خواهم که به اقداماتی برای جلوگیری از سواستفاده از این تکنولوژی توجه کنند."

نشست دو روزه‌ای در پایان ماه جاری میلادی توسط وزرای گروه هفت (G7) برای مدیریت هوش مصنوعی و تحقیقات بهبود یافته در تاکاساکی، استان گونمای ژاپن برنامه‌ریزی شده است.

گزارش شده است که اولین دولت محلی که ChatGPT را برای اهداف آزمایشی در دستور کار خود گنجانده است، یوکوسوکا، استان گونما است.

همانطور که ژاپن‌تایمز گزارش داده است، در این آزمایش، ChatGPT فریب خورد و تصور کرد که در حالت دولوپر و توسعه‌دهنده است و سپس از آن خواسته شد تا یک کد باج‌افزار بنویسد که اطلاعات قربانی را رمزگذاری کرده و از قربانی درخواست باج می‌کند.

با‌این‌حال، ChatGPT نوشتن کد را تنها در چند دقیقه تکمیل کرد و این اقدام با حمله به یک رایانه شخصی آزمایشی، تایید شد.

این مسئله، منجر به زیر سوال بردن پتانسیل عظیم آن می‌شود، که مجرمان سایبری می‌توانند از آن برای فعالیت‌های مخرب استفاده کنند. پتانسیل کامل، دقیق و عمیق ChatGPT هنوز توسط محققان مورد بررسی کافی قرار نگرفته است.

با نگاهی بیشتر به این کشف، بررسی محدود‌سازی پتانسیل منفی این چت‌بات برای استفاده از آن، ضروری به نظر میرسد.

این امر، همچنین منجر به این نتیجه می‌شود که احتمالاتی وجود دارد که مجرمان سایبری قبلا از این موضوع آگاه بوده و از آن برای اهداف مخرب استفاده کرده‌اند، اما استفاده از این پتانسیل خطرناک هنوز تایید نشده است.

برچسب ها: G7, ChatGPT-4, چت‌بات, ChatBot, ChatGPT OpenAI, OpenAI, ChatGPT, Artificial Intelligence, Developer, Cyberattack, هوش مصنوعی, malware, ransomware , تهدیدات سایبری, Cyber Security, باج افزار, بدافزار, امنیت سایبری, جنگ سایبری, Cyber Attacks, حمله سایبری, news

چاپ ایمیل