ایلان ماسک: دیگر داده‌ای برای آموزش هوش مصنوعی باقی نمانده است

دیجیاتو پنج شنبه 20 دی 1403 - 10:03
ماسک با تکرار نگرانی‌هایی که اخیراً توسط کارشناسان دیگر مطرح شده بود، می‌گوید شرکت‌ها در ادامه مجبور به استفاده از داده‌های مصنوعی خواهند شد. The post ایلان ماسک: دیگر داده‌ای برای آموزش هوش مصنوعی باقی نمانده است appeared first on دیجیاتو.

ایلان ماسک به تازگی در جریان یک گفتگوی زنده با دیگر کارشناسان هوش مصنوعی، اعلام کرد که تمام داده‌های موجود را برای مدل‌های هوش مصنوعی استفاده کرده‌ایم و داده‌های واقعی کمی برای آموزش مدل‌های هوش مصنوعی باقی مانده است.

براساس گزارش تک‌کرانچ، ماسک در جریان گفتگوی خود با «مارک پن»، رئیس شرکت مارکتینگ Stagwell در ایکس گفته است:

«درحال‌حاضر ما اساساً تمام دانش بشری به تدریج جمع‌آوری شده موردنیاز برای آموزش هوش مصنوعی را استفاده کرده‌ایم. این اتفاق از نظر فنی سال گذشته رخ داده است.»

ماسک که شرکت هوش مصنوعی خود با نام xAI را دارد، در گفته‌های خود موضوعی که پیش از این توسط «ایلیا سوتسکور»، دانشمند ارشد سابق OpenAI در کنفرانس یادگیری ماشین NeurIPS مطرح شده بود را تکرار کرده است.

سوتسکور در ماه دسامبر گفته بود که صنعت هوش مصنوعی به نقطه‌ای رسیده است که او آن را «قلهِ داده» می‌نامد و پیش‌بینی کرد که کمبود داده‌های آموزشی باعث تغییر شیوه توسعه مدل‌های امروزی خواهد شد.

پیشنهاد ایلان ماسک برای استفاده از داده‌های مصنوعی

ماسک می‌گوید که شرکت‌های فناوری در ادامه مجبور خواهند بود که برای آموزش مدل‌ها از داده‌های مصنوعی استفاده کنند، یعنی داده‌هایی که توسط خود هوش مصنوعی تولید می‌شوند. او می‌گوید:

«تنها راه برای جبران کمبود داده‌های واقعی استفاده از داده‌های مصنوعی است که در آن هوش مصنوعی داده‌های آموزشی را ایجاد می‌کند. با داده‌های مصنوعی هوش مصنوعی به‌نوعی خود را درجه‌بندی می‌کند و فرایند خودآموزی را طی می‌کند.»

ایلان ماسک در حالی به این موضوع اشاره کرده که هم‌اکنون نیز شرکت‌هایی مانند مایکروسافت، متا، OpenAI و انتروپیک از داده‌های مصنوعی برای آموزش مدل‌های هوش مصنوعی خود استفاده می‌کنند. شرکت تحقیقاتی گارتنر نیز در گزارشی گفته بود که 60 درصد از داده‌های مورد استفاده در سال 2024 برای پروژه‌های هوش مصنوعی و تحلیلی به‌طور مصنوعی تولید شده است.

اما نگرانی‌هایی نیز از بابت استفاده از داده‌های مصنوعی وجود دارد. در برخی از تحقیقات نشان داده شده که استفاده از آنها می‌تواند باعث فروپاشی مدل شود، یعنی میزان خلاقیت مدل‌های هوش مصنوعی کاهش پیدا می‌کند. همچنین برخی کارشناسان گفته‌اند که اگر داده‌های مورد استفاده برای آموزش این مدل‌ها دارای سوگیری و محدودیت‌هایی باشد این موضوع روی خروجی آنها نیز تاثیر می‌گذارد.

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.