توسعهدهندگان هوشهای مصنوعی هزینه و زمان زیادی را صرف این میکنند که هوشمصنوعی خود را برابر حملات هکرها مقاوم کنند. اما ظاهرا بزرگترین مشکل Gemini در این زمینه خود این هوشمصنوعی است. محققان دانشگاهی روشی پیدا کردهاند که مدلهای هوش مصنوعی جمنای گوگل را بهطور مؤثرتر در معرض حملات هکری قرار دهد و این کار را با استفاده از ابزارهای خود جمنای انجام دادهاند.
این روش توسط تیمی از دانشگاه کالیفرنیای سن دیهگو و دانشگاه ویسکانسین توسعه یافته است و این تکنیک که Fun-Tuning نامیده میشود، نرخ موفقیت حملات از طریق دادن دستور به Gemini را بهطور قابل توجهی افزایش میدهد. در این حملات، دستورات پنهانی در متنی که مدل هوش مصنوعی میخواند، جاسازی میشود. این حملات میتوانند باعث نشت اطلاعات، دادن پاسخهای نادرست یا انجام دیگر اقدامات غیرمنتظره شوند.
برای مشاهده کامل خبر به لینک زیر مراجعه کنید.

source