۰

راز یادگیری هوش مصنوعی فاش شد

پنجشنبه ۱۸ ثور ۱۴۰۴ ساعت ۲۲:۳۷
aboutamazon
aboutamazon
مدل‌های هوش مصنوعی مانند ChatGPT در واقع فکر نمی‌کنند، استدلال نمی‌کنند، درک نمی‌کنند، بلکه صرفاً الگوهای حدس‌زن هستند که بر اساس حجم عظیمی از متون انسانی آموزش دیده‌اند و تلاش می‌کنند تا کلمه یا مفهوم بعدی را بر مبنای همبستگی‌هایی که پیش‌تر مشاهده کرده‌اند، پیش‌بینی کنند. همین واقعیت، بنیان آن‌ها را تشکیل می‌دهد.
این موضوع ما را به پرسش مهمی می‌رساند: اگر این مدل‌ها تا این اندازه هوشمند به نظر می‌رسند، پس چرا همچنان دچار خطا می‌شوند، واقعیت‌ها را تحریف می‌کنند یا گرایش‌های جانبدارانه نشان می‌دهند؟ برای فهم این مسئله، لازم است تا نحوه یادگیری آن‌ها را بررسی کنیم.
راز یادگیری هوش مصنوعی در چیست؟
مدل‌های زبانی بزرگ، اطلاعات را به شیوه‌ای متفاوت از انسان‌ها پردازش می‌کنند. در عمل آن‌ها هیچ‌گونه استدلال، درک یا آگاهی ندارند. آن‌ها روی مجموعه‌‌ای بزرگ از داده‌‌ها شامل کتاب‌ها، وب‌سایت‌ها و گفتگوها آموزش دیده‌اند تا بتوانند آنچه را که در یک زنجیره از کلمات می‌آید، پیش‌بینی کنند. این مدل‌ها، زبان را به واحدهای کوچکی به نام «توکن» تجزیه می‌کنند که اغلب می‌توانند بخش‌هایی از کلمات باشند و سپس تلاش می‌کنند تا با بالاترین احتمال، یک توکن را پس از توکن دیگر حدس بزنند.
در ادامه، نحوه عملکرد یک مدل هوش مصنوعی در فهم و استدلال داده‌ها و اطلاعات شرح داده شده است:
توکن‌ها: زبان به واحدهای کوچکی نظیر کلمات یا هجاها تقسیم می‌گردد. برای نمونه، واژه «washing» ممکن است به «wash» و «ing» تفکیک شود. مدل‌ها با ایده‌های کامل سروکار ندارند، بلکه صرفاً احتمالات توکن به توکن را در نظر می‌گیرند.
وزن‌ها: این‌ها میلیاردها مقدار قابل تنظیم در شبکه عصبی هستند. آن‌ها را می‌توان به مثابه دکمه‌هایی تصور کرد که به مدل می‌گویند یک توکن تا چه میزان بر توکن دیگر تأثیر بگذارد.
تابع زیان: این روشی است که مدل از طریق آن ارزیابی می‌کند پس از یک حدس، چه مقدار اشتباه کرده است. مدل، وزن‌های خود را به منظور کاهش اشتباهات آتی تغییر می‌دهد.
تشخیص الگو: در نهایت، مدل در شناسایی الگوهای زبانی بسیار ماهر می‌شود. اما همچنان «واقعیت‌ها» را نمی‌داند، بلکه فقط آنچه را که معمولاً صحیح به نظر می‌رسد، تشخیص می‌دهد. اگر بپرسید پایتخت فرانسه کجاست، مدل نمی‌داند که پاریس است. بلکه صرفاً می‌داند که واژه «پاریس» اغلب در داده‌های آموزشی آن پس از این پرسش آمده است.
درک این سازوکار اساسی از اهمیت بسزایی برخوردار است، زیرا مبنایی را فراهم می‌آورد تا دریابیم چرا مدل‌ها همچنان می‌توانند دچار توهم شوند، تعصب نشان دهند یا اشتباهات غیرقابل پیش‌بینی مرتکب شوند.
نام شما

آدرس ايميل شما
نظر شما *

پربازدیدترین