دوستان آرام باشید، ChatGPT در واقع یک هوش مصنوعی نیست

هوش مصنوعی واقعی ممکن است روزی ممکن شود، اما ChatGPT اینطور نیست.
دوستان آرام باشید، ChatGPT در واقع یک هوش مصنوعی نیست

آلن تورینگ، یکی از شخصیت‌های بنیادی در علوم کامپیوتر، در اواخر عمر کوتاه خود به هوش مصنوعی علاقه داشت. به قدری که او آزمایشی غیررسمی برای اینکه چه زمانی می توان گفت کامپیوتری مانند انسان واقعاً باهوش است، ارائه کرد، چیزی که ما اکنون آن را آزمون تورینگ می نامیم.

تست بسیار ساده است. از شخصی بخواهید که با رایانه ارتباط برقرار کند و اگر نتواند بگوید که با رایانه صحبت می کند - یعنی دیگر قابل تشخیص نیست - آنگاه رایانه به سطح هوش انسانی ارتقا می یابد. خب، ChatGPT مطمئناً به نظر می‌رسد که آن آزمون را با امتیاز درخشان پشت سر گذاشته است . این فقط قبولی در آزمون تورینگ نیست، بلکه قبولی در امتحانات مدرسه پزشکی و امتحانات دانشکده حقوق است و تقریباً تکالیف هر بچه ای در دوران تحصیل را حداقل انجام می دهد.

و اگر نمی‌دانید ChatGPT چیست، پاسخ می‌تواند طاقت‌فرسا به نظر برسد. به حدی که مردم شروع به فرافکنی روی ChatGPT و به طور کلی هوش مصنوعی مولد، کیفیت ها و ویژگی های انسانی می کنند که آن را ندارد. البته این مساله بزرگی نیست. مردم همیشه انواع چیزها را اشتباه می‌فهمند، اما از آنجایی که هوش مصنوعی‌های مشابه ChatGPT در ماه‌های آینده گسترده‌تر می‌شوند، مردم قدرت‌هایی را روی آن‌ سرمایه‌گذاری می‌کنند که ندارند، و اگر تحت این فرض اشتباه قرار بگیرند، آنها می توانند بسیار بیشتر از اینکه سود کنند، ضرر کنند.

هوش مصنوعی مولد متخاصم چیست؟

فناوری اساسی در پشت ChatGPT، Stable Diffusion، و تمام هوش مصنوعی های دیگری که تصاویر، متن، موسیقی و موارد دیگر را تولید می کنند، چیزی است که به عنوان یک شبکه متخاصم مولد (GAN) شناخته می شود. من در اینجا خیلی به حاشیه نمی پردازم، اما اساساً GAN دو سیستم نرم افزاری است که با هم کار می کنند. یکی تولید خروجی، مولد، و دیگری تعیین معتبر بودن یا نبودن آن داده، طبقه بندی کننده است.

مولد و طبقه‌بندی کننده در یک GAN کلمه به کلمه یا پیکسل به پیکسل حرکت می‌کنند و اساساً با آن مبارزه می‌کنند تا قبل از رفتن به بخش بعدی، یک اجماع ایجاد کنند. ذره ذره (به معنای واقعی کلمه)، یک GAN خروجی ای تولید می کند که به طور خلاقانه آنچه را که یک انسان می تواند انجام دهد، به طور مشابه تکرار می کند.

مولد بر مقدار متغیری از داده‌های ورودی تکیه می‌کند که برای تولید خروجی‌های خود از آن‌ها آموزش می‌بیند، و طبقه‌بندی‌کننده به ورودی‌های خود تکیه می‌کند تا مشخص کند آنچه که ژنراتور تولید می‌کند منطقی است یا خیر. ممکن است اینگونه باشد که هوش انسان چیزهای جدیدی را "خلق" می کند یا خیر - عصب شناسان هنوز در تلاش هستند تا آن را کشف کنند - اما به طرق بسیاری، می توانید درخت را از میوه هایی که می دهد تشخیص دهید، بنابراین باید به سطح انسانی دست یابد. 

آلن تورینگ

ChatGPT تست تورینگ را می گذراند، اما آیا این مهم است؟

وقتی تورینگ تست هوش مصنوعی خود را ارائه کرد، منظور او گفت‌وگو با یک بازیگر منطقی بود که نمی‌توان گفت با یک ماشین صحبت می‌کنید. ضمناً این ایده این است که ماشین آنچه شما می گویید را فهمیده است. نه عدم شناخت کلمات کلیدی و ایجاد یک پاسخ احتمالی به مجموعه طولانی کلمات کلیدی، بلکه درک.

از نظر تورینگ، مکالمه با یک ماشین تا حدی که از هوش منعکس شده انسانی قابل تشخیص نیست، زیرا ایجاد مخزن وسیعی از کلمات با وزن های مختلف بسته به کلماتی که قبل از آن در یک جمله به هر کدام داده می شود، چیزی نبود که کسی بتواند داشته باشد. و صرفا در آن زمان تصور شده است.

در آن زمان ، نوع ریاضی مورد نیاز برای این نوع محاسبات، در ماشین‌هایی که یک روز کامل برای انجام محاسبات طول می‌کشید، و اینکه ارزان‌ترین گوشی هوشمند می‌تواند در نانوثانیه انجام دهد، به اندازه شمارش تعداد اتم‌های جهان غیرقابل حل به نظر می‌رسید. 

متأسفانه، تورینگ به اندازه کافی عمر نکرد تا ظهور علم داده و چت ربات ها یا حتی مدار مجتمعی که کامپیوترهای مدرن را نیرو می دهد، پیش بینی کند. حتی قبل از ChatGPT، ربات‌های چت در مسیر خوبی برای قبولی در آزمون تورینگ بودند، همانطور که هر کسی که از یک ربات چت برای صحبت با بانک خود استفاده می‌کند می‌تواند به شما بگوید. اما تورینگ یک ربات چت را به عنوان یک ذهن مصنوعی برابر با ذهن یک انسان نمی دید.

چت بات یک ابزار تک منظوره است نه یک ابزار هوشمند. هوش در سطح انسانی به ظرفیت فراتر رفتن از پارامترهایی نیاز دارد که توسعه دهندگان آن به میل خود برای خود تعیین می کنند. ChatGPT از قبل در تقلید از الگوهای زبان انسان مهارت دارد، اما طوطی نیز چنین است، و هیچ کس نمی تواند استدلال کند که طوطی معنای پشت کلماتی را که دارد طوطی وار می گوید، درک می کند.

موفقیت ChatGPT در آزمون تورینگ به این معنی نیست که ChatGPT به اندازه یک انسان باهوش است. همه اینها به این معنی است که تست تورینگ آزمون معتبر هوش مصنوعی نیست که ما فکر می کردیم.

ChatGPT نمی تواند چیزی به خود بیاموزد، فقط می تواند چیزی را بیاموزد که انسان ها آن را هدایت می کنند

این هفته، کریس مورفی، سناتور ایالات متحده از کانکتیکات در توییتر گفت که ChatGPT به دلخواه خود بدون اینکه از سازندگانش خواسته باشد، شیمی را به خود آموزش داده است. مگر اینکه سناتور مورفی چیزی را بداند که علنی نشده است، وگرنه ChatGPT همانطور که می دانیم نمی تواند چنین کاری را انجام دهد.

برای روشن بودن، اگر ChatGPT یا هر GAN دیگری به ابتکار خود به دنبال چیزی بود و یاد می‌گرفت، ما واقعاً به دنیای پساانسان هوش مصنوعی وارد شده‌ایم زیرا نشان دادن ابتکار عمل مستقل بدون شک نشانه‌ای از سطح واقعی هوش انسانی خواهد بود. 

اما اگر یک توسعه‌دهنده به یک ربات بگوید که بیرون برود و چیز جدیدی یاد بگیرد و ربات همانطور که از او خواسته شده است عمل کند، این ربات را هوشمند نمی‌کند.

انجام کاری که به شما گفته می شود و انجام کاری به میل خود ممکن است برای یک ناظر خارجی شبیه به هم باشد، اما این دو چیز کاملاً متفاوت هستند. انسان ها به طور شهودی این را درک می کنند، اما ChatGPT تنها زمانی می تواند این تفاوت را برای ما توضیح دهد که از متون فلسفی که در مورد موضوع اراده آزاد بحث می کنند تغذیه شده باشد. اگر هرگز از اندیشه افلاطون، ارسطو یا نیچه تغذیه نشده باشد، به تنهایی ایده آزادی اراده را مطرح نخواهد کرد. حتی نمی داند که چنین چیزی وجود دارد اگر به او گفته نشود که وجود دارد.

دلایلی برای نگرانی در مورد ChatGPT وجود دارد، اما «هوشمند» شدن آن یکی از آنها نیست

من مدتی در مورد خطرات ChatGPT صحبت کردم، بیشتر به این دلیل که نمی تواند بفهمد چه می گوید و بنابراین می تواند اطلاعات توهین آمیز، سرقت ادبی و کاملاً نادرست را به عنوان واقعیت تولید کند.

موضوع گسترده‌تری وجود دارد که ChatGPT به عنوان جایگزینی برای کارگران انسانی در نظر گرفته می‌شود، زیرا مطمئناً به نظر می‌رسد که ChatGPT (و Stable Diffusion و سایر هوش مصنوعی‌های مولد) می‌توانند کاری را که انسان‌ها می‌توانند سریع‌تر، آسان‌تر و بسیار ارزان‌تر از انسان انجام دهند، انجام دهند. کار یدی. این بحث برای زمان دیگری است، اما عواقب اجتماعی ChatGPT احتمالاً بزرگترین خطر در اینجا است، نه اینکه ما به نوعی SkyNet را می سازیم.

ChatGPT، در هسته خود، سیستمی از گره های دیجیتال متصل با میانگین های اختصاص داده شده به هر یک است که خروجی منطقی با یک ورودی تولید می کند. این تصور نمی شود، به معنای واقعی کلمه فقط ریاضی است که انسان ها در یک ماشین برنامه ریزی کرده اند. ممکن است قدرتمند به نظر برسد، اما ذهن انسانی که آن را ساخته است، هوش واقعی در اینجاست، و این نباید اشتباه گرفته شود.

بازخوردها
    ارسال نظر
    (بعد از تائید مدیر منتشر خواهد شد)
    • - نشانی ایمیل شما منتشر نخواهد شد.
    • - لطفا دیدگاهتان تا حد امکان مربوط به مطلب باشد.
    • - لطفا فارسی بنویسید.
    • - میخواهید عکس خودتان کنار نظرتان باشد؟ به gravatar.com بروید و عکستان را اضافه کنید.
    • - نظرات شما بعد از تایید مدیریت منتشر خواهد شد