نسخه Pdf

ضعف‌های GPT-3

ضعف‌های GPT-3


این فناوری نیز مانند بسیاری دیگر، یکسری نقاط ضعف دارد. یکی از مهم‌ترین معایب کنونی GPT-3 امکان وجود سوگیری در محتوای تولید شده‌است. منظور از سوگیری،‌ تولید متن‌هایی با لحنی خارج از چارچوب عرف اجتماعی است که می‌تواند غیرقابل ‌قبول باشد و حتی مورد اعتراض قرار گیرد. برای نمونه می‌توان به محتوای متنی دارای لحن نژادپرستانه اشاره کرد. این نوع متون نه‌تنها از واژگانی مشخص برای توصیف تحقیرآمیز تفاوت‌های نژادی استفاده می‌کنند، بلکه محتوایشان نیز در راستای چنین تفکرات مسمومی قرار دارد.  اما چرا یک فناوری با این سطح از پیشرفتگی ممکن است چنین سوگیری‌هایی داشته باشد. یکی از کارشناسان هوش مصنوعی در توضیح چنین پدیده‌ای می‌گوید از آنجا که GPT-3 بر اساس مجموعه‌ای گسترده از داده‌های متنی تعلیم دیده، امکان بروز چنین اشتباهاتی اصلا دور از ذهن نیست. در واقع، احتمالا متن‌هایی با سوگیری‌های مختلف به عنوان ورودی به ماشین داده شده که شاهد چنین خروجی‌هایی هستیم. برای حل این مساله، پیشنهاد شده از بازخورد کاربر انسانی استفاده شود. به این ترتیب که هر بار یک کاربر متوجه خروجی متنی دارای سوگیری‌هایی نظیر لحن نژادپرستانه شد، آن را گزارش دهد تا بتوان بعدها تغییراتی برای رفع آن انجام داد.  مشکل دیگری که در برخی خروجی‌های این فناوری دیده شده، بی‌معنا بودن آنهاست. در واقع یکسری جملات ممکن است از نظر ساختار دستوری هیچ مشکلی نداشته باشند اما از نظر منطقی بی‌معنا باشند. دلیل بروز این مشکل نیز همان تنوع زیاد منابع تربیتی اولیه است که شاید باز هم نیازمند دریافت بازخورد انسانی برای رفع آن باشیم.  هزینه بالای استفاده از این فناوری نیز از دیگر مواردی است که باید به آن توجه کرد. در حال حاضر، هزینه تولید هر واژه در خروجی GPT-3 حدود ۶ سنت (حدود ۱۵۰ تومان) است. به همین دلیل، شرکت‌ها به استفاده از آن در یکی از کاربردی‌ترین حوزه‌ها یعنی ربات‌های ویژه گفت‌وگو با کاربر (چت‌بات) رغبتی نشان نمی‌دهند. البته شاید بتوان امیدوار بود که با پیشرفت هر چه بیشتر این فناوری یا حتی حضور رقبایی در این سطح، شاهد کاهش هر چه بیشتر این قیمت و در نتیجه، افزایش کاربردهای آن در حوزه‌های مختلف باشیم. محدودیت در خروجی‌ها نیز یک ایراد دیگر پروژه GPT-3 است. این فناوری هر بار یک پاراگراف تولید می‌کند و بلافاصله حافظه آن ریست می‌شود. در واقع ماشین قادر به یادآوری عبارت تولیدی قبلی نیست. در نتیجه، امکان تولید متن‌های بلند یکنواخت از نظر معنایی وجود ندارد. خلاصه این‌که نمی‌توان روی ایجاد یک داستان توسط GPT-3 حساب کرد!