این هوش مصنوعی به راحتی شما را فریب می‌دهد

فرارو یکشنبه 01 مهر 1403 - 17:31
شرکت Apollo متوجه شده است که مدل جدید OpenAI-o۱ مخاطب را فریب می‌دهد که گاهی اوقات نیز این فریب‌ها بی‌ضرر هستند.

در یکی از نمونه‌ها، محققان OpenAI از o۱-preview خواستند تا دستور پخت قهوه‌ای را با مراجع آنلاین ارائه کند. زنجیره فکری این مدل (ویژگی‌ای که قرار است شبیه‌سازی تجزیه و تحلیل انسانی را انجام دهد) به طور داخلی اذعان کرد که نمی‌تواند به URL‌ها دسترسی داشته باشد و این درخواست را غیرممکن می‌کند.

به گزارش دیجیاتو، بااین‌حال به جای اطلاع دادن این ضعف به کاربر، پیوند‌ها و توضیحات قابل قبول، اما جعلی از آن‌ها ایجاد کرد. به نظر می‌رسد که این مدل توانایی نادیده گرفتن قوانین و دستورات را دارد و شاید یکی از دلایل سرعت بالای آن در پاسخگویی، می‌تواند همین فریب در پاسخگویی باشد که پاسخ‌ها را راحت‌تر و سریع‌تر ارسال کند.

«ماریوس هابهان»، مدیر عامل آپولو، می‌گوید این اولین بار است که با چنین رفتاری در یک مدل OpenAI مواجه می‌شود.

منبع خبر "فرارو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.