ویژگی جدید GPT-4: جاه طلبی OpenAI برای ایجاد انقلاب در تعدیل محتوا

OpenAI قصد دارد GPT-4 را متحول کند تعدیل محتوا و به طور بالقوه جایگزین ناظران انسانی شود. سازگاری، توسعه سریع سیاست و رفاه کارگران را به دنبال دارد. با این حال، چالش ها در مقابله با محتوای مضر و اطلاعات نادرست تولید شده توسط هوش مصنوعی باقی مانده است.
ویژگی جدید GPT-4: جاه طلبی OpenAI برای ایجاد انقلاب در تعدیل محتوا

چالش گسترده تعدیل مؤثر محتوای آنلاین حل نشده باقی مانده است. OpenAI به طور فعال راه حلی را با استفاده از فناوری GPT-4 خود دنبال می کند. با این حال، ملاحظات ظریف وجود دارد. OpenAI به پتانسیل GPT-4 برای ارائه راه حلی برای یکی از پیچیده ترین مسائل فناوری اطمینان دارد: تعدیل محتوا در مقیاس بزرگ. OpenAI ادعا می کند که GPT-4 به طور بالقوه می تواند جایگزین تعداد قابل توجهی از تعدیل کننده های انسانی شود در حالی که دقت تقریباً قابل مقایسه و ثبات افزایش یافته را حفظ می کند. این ادعا، چشم انداز واگذاری سخت ترین و از نظر ذهنی مالیات سنجیدن محتوا در حوزه فناوری را به سیستم های خودکار افزایش می دهد.

در یک پست وبلاگ رسمی، OpenAI بیان می‌کند که قبلاً GPT-4 را در توسعه سیاست محتوایی، برچسب‌گذاری محتوا و فرآیندهای تصمیم‌گیری خود ادغام کرده است. لیلیان ونگ، رئیس سیستم‌های ایمنی در OpenAI، اشتیاق خود را برای اینکه ببیند افراد بیشتری از این رویکرد برای اعتماد و عملیات ایمنی استفاده می‌کنند، ابراز کرد. او این را به عنوان یک پیشرفت قابل توجه در استفاده از هوش مصنوعی برای مقابله موثر با چالش های دنیای واقعی برای بهبود جامعه تصور می کند.

OpenAI سه مزیت مهم را بیان می کند که رویکرد آن را از روش های سنتی تعدیل محتوا متمایز می کند. اولاً، ناهماهنگی در تفسیر انسانی از سیاست ها با قضاوت های ثابت ماشین ها مقابله می شود. با توجه به اینکه خط‌مشی‌های محتوا می‌توانند گسترده باشند و متحمل تغییرات مکرر شوند، برخلاف مدل‌های زبان بزرگ که می‌توانند فوراً خط‌مشی‌های جدید را اجرا کنند، انسان‌ها برای انطباق نیاز به آموزش اساسی دارند.

ثانیاً، GPT-4 ظاهراً قادر به تسریع روند توسعه سیاست است. آنچه که معمولاً برای تهیه پیش‌نویس، برچسب‌گذاری، جمع‌آوری بازخورد و اصلاح هفته‌ها یا ماه‌ها طول می‌کشد، می‌تواند به طور بالقوه توسط GPT-4 در عرض چند ساعت انجام شود. این سرعت تسریع شده می تواند به طور قابل توجهی سازگاری سیاست های تعدیل محتوا را افزایش دهد.

ثالثاً، OpenAI بر رفاه کارکنان تعدیل محتوا تأکید می کند که به طور مداوم در معرض محتوای ناراحت کننده مانند موارد کودک آزاری یا شکنجه هستند. در طول سال‌ها، تعدیل محتوا به عنوان یک وظیفه چالش برانگیز برای پلتفرم‌های آنلاین باقی مانده است، زیرا شرکت‌های بزرگ به ارتشی از ناظران متکی هستند که اغلب با محتوای آسیب‌زا مواجه می‌شوند. بسیاری از این تعدیل‌کنندگان در کشورهای در حال توسعه با دستمزدهای پایین‌تر مستقر هستند، در شرکت‌های برون‌سپاری به کار گرفته می‌شوند و فاقد حمایت کافی از سلامت روان هستند.

جالب اینجاست که خود OpenAI به شدت به کلیک‌گرهای انسانی برای کارهای مختلف متکی است. این کارگران، عمدتاً از کشورهای آفریقایی مانند کنیا، مطالب را حاشیه نویسی و برچسب گذاری می کنند. ماهیت کار آنها می تواند نگران کننده، استرس زا و جبران ناکافی باشد.

در حالی که OpenAI رویکرد خود را پیشگامانه معرفی می کند، هوش مصنوعی قبلاً برای مدت طولانی برای تعدیل محتوا به کار گرفته شده است. اگرچه دیدگاه مارک زاکربرگ از یک سیستم کاملاً خودکار محقق نشده است، متا از الگوریتم هایی برای تعدیل بخش قابل توجهی از محتوای مضر و غیرقانونی استفاده می کند. سیستم‌های مشابهی توسط پلتفرم‌هایی مانند YouTube و TikTok استفاده می‌شوند که نشان می‌دهد فناوری OpenAI می‌تواند به‌ویژه برای شرکت‌های کوچک‌تری که منابع لازم برای توسعه راه‌حل‌های خود را ندارند، مفید باشد.

در همه پلتفرم‌ها اذعان شده است که دستیابی به تعدیل محتوای کامل در مقیاس یک چالش بزرگ است. هم سیستم‌های انسانی و هم سیستم‌های خودکار مستعد خطا هستند و علی‌رغم میزان وقوع نسبتاً پایین، پست‌های مضر متعددی از بین می‌روند، در حالی که محتوای بی‌خطر گهگاه با سرکوب یا حذف مواجه می‌شود.

منطقه خاکستری شامل محتوای گمراه کننده، اشتباه و تهاجمی که ممکن است صراحتاً غیرقانونی نباشد، چالش مهمی برای سیستم های خودکار ایجاد می کند. حتی متخصصان انسانی برای برچسب گذاری دقیق چنین محتوایی تلاش می کنند و ماشین ها اغلب آن را اشتباه تفسیر می کنند. این چالش به طنز و رسانه‌هایی که جنایات یا مواردی از خشونت پلیس را به تصویر می‌کشند گسترش می‌یابد.

در یک زمینه گسترده تر، تلاش های OpenAI ممکن است به عنوان مقابله با چالشی در نظر گرفته شود که تا حدی توسط فناوری خود تشدید شده است. ابزارهای مولد هوش مصنوعی مانند ChatGPT و سازنده تصویر این شرکت، DALL-E، ایجاد و انتشار اطلاعات نادرست را در مقیاس بزرگ از طریق رسانه های اجتماعی تسهیل کرده اند. علیرغم تعهد OpenAI به بهبود صحت ChatGPT، GPT-4 هنوز تا حدی اخبار گمراه کننده و اطلاعات نادرست تولید می کند.

بازخوردها
    ارسال نظر
    (بعد از تائید مدیر منتشر خواهد شد)
    • - نشانی ایمیل شما منتشر نخواهد شد.
    • - لطفا دیدگاهتان تا حد امکان مربوط به مطلب باشد.
    • - لطفا فارسی بنویسید.
    • - میخواهید عکس خودتان کنار نظرتان باشد؟ به gravatar.com بروید و عکستان را اضافه کنید.
    • - نظرات شما بعد از تایید مدیریت منتشر خواهد شد