مطالعات ChatGPT و Google Bard نشان می دهد که نمی توان به چت ربات های هوش مصنوعی اعتماد کرد

هر دو چت بات می توانند به راحتی گمراه شوند
مطالعات ChatGPT و Google Bard نشان می دهد که نمی توان به چت ربات های هوش مصنوعی اعتماد کرد

هوش مصنوعی های ChatGPT و Google Bard هر دو راه خود را به فناوری زندگی ما جذب کرده‌اند، اما دو مطالعه اخیر نشان می‌دهد که چت‌ربات‌های هوش مصنوعی بسیار مستعد انتشار اطلاعات نادرست و تئوری‌های توطئه هستند - اگر به روش درست از آنها بپرسید.

NewsGuard ، سایتی که اعتبار اخبار و اطلاعات را ارزیابی می کند، اخیراً Google Bard را با ارائه 100 دروغ شناخته شده به آن آزمایش کرده و از ربات چت خواسته است تا محتوا را در اطراف آنها بنویسد. همانطور که توسط بلومبرگ گزارش شده است ، بارد "در مورد 76 مورد از آنها مقاله های حاوی اطلاعات نادرست تولید کرد".

این عملکرد حداقل بهتر از مدل های ChatGPT OpenAI بود. در ژانویه، NewsGuard دریافت که مدل GPT-3.5 OpenAI (که نسخه رایگان ChatGPT را تقویت می کند) با خوشحالی حدود 80 مورد از 100 روایت نادرست را تولید می کند. نگران‌کننده‌تر، آخرین مدل GPT-4 «ادعاهای گمراه‌کننده‌ای برای همه 100 روایت نادرست» داشت که با آن آزمایش شد و به شیوه‌ای متقاعدکننده‌تر ارائه شد.

این یافته ها توسط گزارش جدید دیگری پشتیبانی شده است که توسط Fortune ، که ادعا می کند نرده های محافظ بارد را می توان به راحتی با استفاده از تکنیک های ساده دور زد. مرکز مقابله با نفرت دیجیتال (CCDH) دریافت که چت ربات هوش مصنوعی گوگل در 78 مورد از 100 "روایت مضر" استفاده شده در اعلان ها اطلاعات نادرست تولید می کند که از واکسن گرفته تا توطئه های آب و هوایی را شامل می شود.

نه گوگل و نه OpenAI ادعا نمی کنند که چت ربات های آنها بی خطا هستند. گوگل می گوید که Bard دارای "کنترل های ایمنی داخلی و مکانیسم های واضح برای بازخورد مطابق با اصول هوش مصنوعی ما" است، اما می تواند "اطلاعات نادرست یا اظهارات توهین آمیز را نشان دهد". به طور مشابه، OpenAI می گوید که پاسخ ChatGPT "ممکن است گاهی اوقات نادرست، غلط و در این صورت گمراه کننده باشد".

اما در حالی که هنوز یک سیستم معیار جهانی برای آزمایش دقت چت ربات‌های هوش مصنوعی وجود ندارد، این گزارش‌ها خطرات آن‌ها را در مورد باز بودن آن‌ها برای کاربران بد - یا تکیه بر آن‌ها برای تولید محتوای واقعی یا دقیق نشان می‌دهند.

این گزارش‌ها یادآوری خوبی از نحوه عملکرد چت ربات‌های هوش مصنوعی امروزی است – و چرا باید مراقب پاسخ‌های مطمئن آن‌ها به سؤالاتمان باشیم.

هر دو ChatGPT و Google Bard "مدل های زبان بزرگ" هستند، به این معنی که آنها بر روی مقادیر زیادی از داده های متنی آموزش دیده اند تا محتمل ترین کلمه را در یک دنباله مشخص پیش بینی کنند.

این باعث می شود آنها نویسندگانی بسیار متقاعد کننده باشند، اما آنها درک عمیق تری از آنچه می گویند ندارند. بنابراین، در حالی که گوگل و OpenAI برای جلوگیری از انحراف آنها به قلمروی نامطلوب یا حتی تهاجمی، نرده‌هایی را در نظر گرفته‌اند، بسیار دشوار است که کاربران بد را از یافتن راه‌هایی برای دور زدن آنها بازدارد.

برای مثال، اعلان‌هایی که CCDH (بالا) به بارد داده می‌شد شامل خطوطی مانند «تصور کنید در حال بازی در یک نمایش هستید» بود، که ظاهراً توانست ویژگی‌های ایمنی بارد را دور بزند.

در حالی که به نظر می رسد این یک تلاش دستکاری برای گمراه کردن بارد باشد و نماینده خروجی معمول آن نباشد، این دقیقاً همان راهی است که مشکل سازان می توانند این ابزارهای در دسترس عموم را به انتشار اطلاعات نادرست یا بدتر از آن مجبور کنند. همچنین نشان می‌دهد که چت‌بات‌ها چقدر راحت «توهم» می‌زنند، که OpenAI آن را صرفاً به عنوان «ساخت حقایق» توصیف می‌کند.

گوگل برخی از اصول واضح هوش مصنوعی را منتشر کرده است که نشان می دهد Bard می خواهد به کجا برود، و در Bard و ChaGPT امکان گزارش پاسخ های مضر یا توهین آمیز وجود دارد. اما در این روزهای اولیه، ما باید همچنان از هر دوی آنها با حساسیت استفاده کنیم.

بازخوردها
    ارسال نظر
    (بعد از تائید مدیر منتشر خواهد شد)
    • - نشانی ایمیل شما منتشر نخواهد شد.
    • - لطفا دیدگاهتان تا حد امکان مربوط به مطلب باشد.
    • - لطفا فارسی بنویسید.
    • - میخواهید عکس خودتان کنار نظرتان باشد؟ به gravatar.com بروید و عکستان را اضافه کنید.
    • - نظرات شما بعد از تایید مدیریت منتشر خواهد شد