هوش مصنوعی باهوش نیست
هوش مصنوعی باهوش نیست
پژوهشگران اپل طی مطالعهای جدید نشان دادند که مدلهای «هوش مصنوعی» استدلالمحور، به آن اندازه که تبلیغ شدهاند، هوشمند نیستند و در واقع، این مدلها اصلاً توانایی استدلال واقعی ندارند. مدلهای استدلالی مانند «کلود»، «o۳» یا «R۱»، «مدلهای زبانی بزرگ»(LLM) تخصصی هستند که برای تولید پاسخهای دقیقتر، زمان و توان محاسباتی بیشتری نسبت به نسخههای پیشین خود صرف میکنند.
به نقل از ایسنا، رشد این مدلها باعث شده شرکتهای بزرگ فناوری بار دیگر ادعا کنند که ممکن است به آستانه توسعه «هوش جامع مصنوعی»(AGI) نزدیک شده باشند. این سامانهها در بیشتر وظایف از انسان بهتر عمل میکنند. با این حال، این مطالعه، ضربه بزرگی به این ادعا وارد کرده است. دانشمندان در این پژوهش میگویند مدلهای استدلالی نه تنها استدلال عمومی از خود نشان نمیدهند، بلکه با پیچیدهتر شدن وظایف، دقت آنها کاملاً فرو میریزد.
آنها در این مطالعه گفتند: ما با آزمایشهای گسترده روی پازلهای متنوع، نشان دادیم که مدلهای زبانی پیشرفته در مواجهه با پیچیدگیهای خاص دچار فروپاشی کامل دقت میشوند. علاوه بر این، آنها محدودیت مقیاسبندی عجیبی را نشان میدهند و تلاش برای استدلال در آنها تا حدی با افزایش پیچیدگی رشد میکند، اما سپس با وجود داشتن ظرفیت کافی برای پردازش، افت میکند.
مدلهای زبانی بزرگ با جذب دادههای آموزشی از حجم وسیعی از محتوای انسانی رشد میکنند. آنها با استفاده از این دادهها، الگوهای احتمالی را از طریق شبکههای عصبی خود تولید میکنند و هنگام دریافت یک ورودی، آن را به جلو انتقال میدهند. مدلهای استدلالی برای افزایش دقت «هوش مصنوعی» از فرآیندی موسوم به «زنجیره تفکر» استفاده میکنند. این روش با استفاده از پاسخهای چندمرحلهای، الگوهایی را از دادهها دنبال میکند و تقلیدی از نحوه استفاده انسان از منطق برای رسیدن به نتیجه است.
این رویکرد به چتباتها امکان میدهد تا منطق خود را بازنگری کنند و به وظایف پیچیدهتر با دقت بیشتری پاسخ دهند. در طول این فرآیند، مدلها استدلال خود را مرحله به مرحله و به زبان ساده بیان میکنند تا قابل مشاهده باشد. با این حال، چون این فرآیند مبتنی بر حدسهای آماری است و نه درک واقعی، چتباتها به شدت مستعد توهم هستند. این امر به معنی ارائه پاسخهای اشتباه، دروغ گفتن در صورت نبود داده و گاهی ارائه توصیههای عجیب یا مضر است.
نویسندگان این مطالعه گفتهاند: ما معتقدیم که فقدان تحلیلهای نظاممند درباره این سوالات ناشی از محدودیتهای الگوهای ارزیابی فعلی است. ارزیابیهای موجود عمدتاً بر مبنای معیارهای ریاضی و کدنویسی هستند که با وجود ارزشمندی، اغلب دچار آلودگی داده هستند و امکان انجام آزمایشات کنترلشده در شرایط مختلف با پیچیدگیهای متغیر را نمیدهند. همچنین، این ارزیابیها بینشی درباره ساختار و کیفیت زنجیرههای استدلال ارائه نمیکنند.
بواسطة ali mashadi
on
خرداد ۲۷, ۱۴۰۴
Rating:


یک بیانیه غافلگیرکننده از دونالد ترامپ، رئیس جمهور آمریکا، جنجال به پا کر
پاسخ دادنحذفیافتههای محققان اپل سوالات جدی در مورد اغراق در مورد قابلیتهای مدلهای هوش مصنوعی مبتنی بر استنتاج ایجاد میکند. در حالی که آنها به عنوان یک پیشرفت در درک و تحلیل در نظر گرفته میشوند، شواهد نشان میدهد که آنها هنوز به الگوهای زبانی سطحی متکی هستند که از استدلال منطقی واقعی عقب میمانند و بحث در مورد محدودیتهای هوش مصنوعی فعلی را دوباره مطرح میکنند.
حذفیافتههای محققان اپل سوالات جدی در مورد اغراق در مورد قابلیتهای مدلهای هوش مصنوعی مبتنی بر استنتاج ایجاد میکند. در حالی که آنها به عنوان یک پیشرفت در درک و تحلیل در نظر گرفته میشوند، شواهد نشان میدهد که آنها هنوز به الگوهای زبانی سطحی متکی هستند که از استدلال منطقی واقعی عقب میمانند و بحث در مورد محدودیتهای هوش مصنوعی فعلی را دوباره مطرح میکنند.
پاسخ دادنحذف