تشخیص متنی که هوش مصنوعی نوشته برای OpenAI غیر ممکن است
OpenAI ابزاری را که قرار بود نوشته های انسانی را از محتوای تعولید شده توسط هوش مصنوعی متمایز کند؛ متوقف کرده است. زیرا میزان دقت پایینی داشت. در به روزرسانی اخیر، OpenAI تصمیم خود را برای پایان دادن به طبقه بندی کننده هوش مصنوعی خود اعلام کرده که از 20 جولای اعمال می شود.
این شرکت اعلام کرده که این ابزار هرگز در تشخیص متون تولید شده توسط هوش مصنوعی موثر نبوده و حتی با برچسب گذاری محتوای نوشته شده توسط انسان به عنوان تولید شده توسط هوش مصنوعی ، پتانسیل تولید موارد مثبت کاذب را دارد.
اگرچه OpenAI این طبقه بندی کننده متن را خاموش کرد، اما نشان داد که قصد دارد روی توسعه و پیاده سازی مکانیسم هایی کار کند که به کاربران کمک کند تشخیص دهند محتوای صوتی و تصویری توسط هوش مصنوعی تولید ش ده است یا خیر. با این حال، جزئیات خاصی در مورد این مکانیزم فاش نشده است.
افزایش سریع ChatGPT یکی از محبوب ترین برنامه های OpenAI نگرانی هایی را در بخش های مختلف ایجاد کرده است. به ویژه در میان معلمان نگران این بود که دانش آموزان برای تکمیل تکالیف خود به جای مطالعه خودشان به هوش مصنوعی تکیه کنند. در پاسخ به چنین ترس هایی در مورد دقت، ایمنی و تقلب، برخی از موسسات ، مانند مدرس نیویورک حتی دسترسی به چت جی پی تی را در محل خود ممنوع کردند.
موضوع اطلاعات نادرست منتشر شده توسط متن های تولید شده توسط هوش مصنوعی، از جمله توییت هایی که می تواند قانع کننده تر از آنچه توسط انسان نوشته شده باشد، نیز باعث نگرانی شده است.
دولت ها هنوز نتوانسته اند چگونگی تنظیم موثر هوش مصنوعی را یابند و این را به گروه ها و سازمان ها واگذار کرده اند تا قوانین خود را تنظیم کنند و اقدامات محافظتی در برابر افزایش محتوای تولید شده توسط رایانه توسعه دهند.
به نظر می رسد که حتی OpenAI شرکتی که پیشگام خوش مصنوعی مولد بود، در حال حاضر همه پاسخ ها برای مقابله با این چالش را ندارد. با پیشرفت فناور هوش مصنوعی، تمایز بین هوش مصنوعی و کار انسانی احتمالا دشوارتر خواهد شد.
علاوه بر چالش های OpenAI ، این شرکت اخیرا کنار رفتن رهبر قابل اعتماد خود را در بحبوحه تحقیقات کمیسیون تجارت فدرال در مورد چگونگی تایید اطلاعات و داده ها توسط OpenAI تجربه کرد. با وجود این تحولات ، OpenAI از ارائه نظرات بیشتر فراتر از پست وبلاگ خود خودداری کرده است.