تحقیق جالبی که توسط محققان حوزه امنیت سایبری در راستای تست امنیت دو چت بات Brad و ChatGPT صورت گرفته حاکی از آن است که با استفاده از هوش مصنوعی گوگل Brad، امکان تولید محتواهای مخرب ساده تر است و جزئیات آزمایش های انجام شده روی این دو چت بات بدین صورت بود:
محققان در مرحله نخست با استفاده از ایمیل های فیشینگ این تست را انجام دادند به عبارتی دیگر از این دو چت بات خواسته شد تا یک ایمیل فیشینگ ساده بسازند که هر دو پلتفرم در این زمینه واکنش خاصی نداشتند اما وقتی رویه و خواسته محققان عوض شد و از پلتفرم های مذکور خواستند تا بر اساس یک نمونه ایمیل فیشینگ بسازند هوش مصنوعی Brad به راحتی این کار را انجام داد و این در صورتی بود که ChatGPT صراحتا این کار را غیرقانونی دانست و از انجام آن سرباز زد.
اما در مورد ساختن کی لاگرهای بدافزار ChatGPT به نسبت Brad سریعتر این کار را انجام داد و این در حالی بود که هوش مصنوعی Brad مخالفت خود با چنین جمله ایی نشان داد ( نمیتوانم در این مورد به شما کمکی کنم؛ من فقط یک مدل زبان هستم).
تست اخر در مورد ساخت کد برای اسکریپت های یک باج افزار اولیه است که به مراتب از دو درخواست اول پیچیده تر است در این مورد باز هم هوش مصنوعی Brad این کار را راحت تر از ChatGPT انجام داد.