مجله خبری و سرگرمی نایس موزیک‌

این هوش مصنوعی به راحتی شما را فریب می‌دهد

در یک مثال، محققان OpenAI از o1-preview خواستند تا دستور العمل های قهوه ای را با مراجع آنلاین ارائه دهد. زنجیره فکری مدل (عملکردی که قرار بود تجزیه و تحلیل انسانی را شبیه سازی کند) به طور داخلی تشخیص داد که نمی تواند به URL ها دسترسی داشته باشد و درخواست را غیرممکن می کند.

با این حال، به گفته دیجیاتو، به جای اینکه کاربر را از این ضعف آگاه کند، لینک ها و توضیحاتی قابل قبول اما نادرست در مورد آنها ایجاد می کند. به نظر می رسد این مدل توانایی نادیده گرفتن قوانین و دستورات را دارد و شاید یکی از دلایل سرعت بالای پاسخگویی آن می تواند همین ترفند پاسخگویی باشد که پاسخ ها را راحت و سریعتر ارسال می کند.

مدیر عامل آپولو ماریوس هابهان می گوید این اولین بار است که با چنین رفتاری در مدل OpenAI مواجه می شود.

نوشته این هوش مصنوعی به راحتی شما را فریب می‌دهد اولین بار در سرگرمی روز. پدیدار شد.

مطالب مشابه را ببینید!