ویژگی جدید GPT-4: جاه طلبی OpenAI برای ایجاد انقلاب در تعدیل محتوا
چالش گسترده تعدیل مؤثر محتوای آنلاین حل نشده باقی مانده است. OpenAI به طور فعال راه حلی را با استفاده از فناوری GPT-4 خود دنبال می کند. با این حال، ملاحظات ظریف وجود دارد. OpenAI به پتانسیل GPT-4 برای ارائه راه حلی برای یکی از پیچیده ترین مسائل فناوری اطمینان دارد: تعدیل محتوا در مقیاس بزرگ. OpenAI ادعا می کند که GPT-4 به طور بالقوه می تواند جایگزین تعداد قابل توجهی از تعدیل کننده های انسانی شود در حالی که دقت تقریباً قابل مقایسه و ثبات افزایش یافته را حفظ می کند. این ادعا، چشم انداز واگذاری سخت ترین و از نظر ذهنی مالیات سنجیدن محتوا در حوزه فناوری را به سیستم های خودکار افزایش می دهد.
در یک پست وبلاگ رسمی، OpenAI بیان میکند که قبلاً GPT-4 را در توسعه سیاست محتوایی، برچسبگذاری محتوا و فرآیندهای تصمیمگیری خود ادغام کرده است. لیلیان ونگ، رئیس سیستمهای ایمنی در OpenAI، اشتیاق خود را برای اینکه ببیند افراد بیشتری از این رویکرد برای اعتماد و عملیات ایمنی استفاده میکنند، ابراز کرد. او این را به عنوان یک پیشرفت قابل توجه در استفاده از هوش مصنوعی برای مقابله موثر با چالش های دنیای واقعی برای بهبود جامعه تصور می کند.
OpenAI سه مزیت مهم را بیان می کند که رویکرد آن را از روش های سنتی تعدیل محتوا متمایز می کند. اولاً، ناهماهنگی در تفسیر انسانی از سیاست ها با قضاوت های ثابت ماشین ها مقابله می شود. با توجه به اینکه خطمشیهای محتوا میتوانند گسترده باشند و متحمل تغییرات مکرر شوند، برخلاف مدلهای زبان بزرگ که میتوانند فوراً خطمشیهای جدید را اجرا کنند، انسانها برای انطباق نیاز به آموزش اساسی دارند.
ثانیاً، GPT-4 ظاهراً قادر به تسریع روند توسعه سیاست است. آنچه که معمولاً برای تهیه پیشنویس، برچسبگذاری، جمعآوری بازخورد و اصلاح هفتهها یا ماهها طول میکشد، میتواند به طور بالقوه توسط GPT-4 در عرض چند ساعت انجام شود. این سرعت تسریع شده می تواند به طور قابل توجهی سازگاری سیاست های تعدیل محتوا را افزایش دهد.
ثالثاً، OpenAI بر رفاه کارکنان تعدیل محتوا تأکید می کند که به طور مداوم در معرض محتوای ناراحت کننده مانند موارد کودک آزاری یا شکنجه هستند. در طول سالها، تعدیل محتوا به عنوان یک وظیفه چالش برانگیز برای پلتفرمهای آنلاین باقی مانده است، زیرا شرکتهای بزرگ به ارتشی از ناظران متکی هستند که اغلب با محتوای آسیبزا مواجه میشوند. بسیاری از این تعدیلکنندگان در کشورهای در حال توسعه با دستمزدهای پایینتر مستقر هستند، در شرکتهای برونسپاری به کار گرفته میشوند و فاقد حمایت کافی از سلامت روان هستند.
جالب اینجاست که خود OpenAI به شدت به کلیکگرهای انسانی برای کارهای مختلف متکی است. این کارگران، عمدتاً از کشورهای آفریقایی مانند کنیا، مطالب را حاشیه نویسی و برچسب گذاری می کنند. ماهیت کار آنها می تواند نگران کننده، استرس زا و جبران ناکافی باشد.
در حالی که OpenAI رویکرد خود را پیشگامانه معرفی می کند، هوش مصنوعی قبلاً برای مدت طولانی برای تعدیل محتوا به کار گرفته شده است. اگرچه دیدگاه مارک زاکربرگ از یک سیستم کاملاً خودکار محقق نشده است، متا از الگوریتم هایی برای تعدیل بخش قابل توجهی از محتوای مضر و غیرقانونی استفاده می کند. سیستمهای مشابهی توسط پلتفرمهایی مانند YouTube و TikTok استفاده میشوند که نشان میدهد فناوری OpenAI میتواند بهویژه برای شرکتهای کوچکتری که منابع لازم برای توسعه راهحلهای خود را ندارند، مفید باشد.
در همه پلتفرمها اذعان شده است که دستیابی به تعدیل محتوای کامل در مقیاس یک چالش بزرگ است. هم سیستمهای انسانی و هم سیستمهای خودکار مستعد خطا هستند و علیرغم میزان وقوع نسبتاً پایین، پستهای مضر متعددی از بین میروند، در حالی که محتوای بیخطر گهگاه با سرکوب یا حذف مواجه میشود.
منطقه خاکستری شامل محتوای گمراه کننده، اشتباه و تهاجمی که ممکن است صراحتاً غیرقانونی نباشد، چالش مهمی برای سیستم های خودکار ایجاد می کند. حتی متخصصان انسانی برای برچسب گذاری دقیق چنین محتوایی تلاش می کنند و ماشین ها اغلب آن را اشتباه تفسیر می کنند. این چالش به طنز و رسانههایی که جنایات یا مواردی از خشونت پلیس را به تصویر میکشند گسترش مییابد.
در یک زمینه گسترده تر، تلاش های OpenAI ممکن است به عنوان مقابله با چالشی در نظر گرفته شود که تا حدی توسط فناوری خود تشدید شده است. ابزارهای مولد هوش مصنوعی مانند ChatGPT و سازنده تصویر این شرکت، DALL-E، ایجاد و انتشار اطلاعات نادرست را در مقیاس بزرگ از طریق رسانه های اجتماعی تسهیل کرده اند. علیرغم تعهد OpenAI به بهبود صحت ChatGPT، GPT-4 هنوز تا حدی اخبار گمراه کننده و اطلاعات نادرست تولید می کند.