مدیرعامل سابق گوگل می‌گوید در شرایط خطرناک باید بتوانیم هوش مصنوعی را خاموش کنیم

دیجیاتو چهارشنبه 28 آذر 1403 - 14:32
اریک اشمیت می‌گوید: «بهتر است کسی را داشته باشیم که دستش همیشه روی دوشاخه [هوش مصنوعی] باشد.» The post مدیرعامل سابق گوگل می‌گوید در شرایط خطرناک باید بتوانیم هوش مصنوعی را خاموش کنیم appeared first on دیجیاتو.

«اریک اشمیت»، مدیرعامل سابق گوگل، هشدار می‌دهد وقتی سیستمی کامپیوتری، مانند هوش مصنوعی، به نقطه‌ خطرناکی برسد که بتواند خودش را بهبود بخشد، به‌طور جدی باید به فکر خاموش‌کردن آن بیفتیم.

اریک اشمیت در مصاحبه‌ای با ABC News درباره پیشرفت سیستم‌های کامپیوتری و هوش مصنوعی گفت: «درنهایت وقتی به کامپیوتر می‌گویید: همه‌چیز را بیاموز و هر کاری را انجام بده. به نقطه‌ای خطرناک می‌رسیم: زمانی که سیستم می‌تواند خودش را بهبود ببخشد، باید جدی به فکر خاموش‌کردن آن باشیم.»

مدیرعامل سابق گوگل هشدار می‌دهد اگر سیستم‌های هوش مصنوعی بیش‌از‌حد قدرتمند شوند، ممکن است به یک کلید برای کشتن آنها نیاز داشته باشیم. به گفته اشمیت، همان‌طور که سیستم‌ها به‌صورت فزاینده خودمختار می‌شوند، می‌توانند تهدیدهای جدید و جدی‌تری برای بشریت ایجاد کنند.

نظرات مدیرعامل سابق گوگل درباره خطرات هوش مصنوعی

اشمیت پیش‌بینی می‌کند هوش مصنوعی به‌مرور از عاملی خاص مانند کوپایلت مایکروسافت به سیستم‌ پیچیده‌تری که می‌تواند به‌تنهایی تصمیم‌ بگیرد، پیشرفت خواهد کرد. به گفته او، وقتی هوش مصنوعی به آن مرحله برسد، زمانش فرا‌می‌رسد که انسان وارد عمل شود و سیستم را خاموش کند. همچنین انسان‌ها باید مطمئن شوند خود هوش مصنوعی نمی‌تواند با خاموش‌شدنش مقابله کند.

اشمیت گفت: «به‌صورت استعاری، بهتر است کسی را داشته باشیم که دستش همیشه روی دوشاخه [هوش مصنوعی] باشد.»

اشمیت از جنبه دیگری نیز به این فناوری پیشرفته نگاه می‌کند؛ او به مجری ABC گفت هوش مصنوعی باعث می‌شود هر انسانی در جیبش چند فرد باهوش داشته باشد؛ هرکسی در این سیاره می‌تواند به‌راحتی «آلبرت اینشتین» یا «لئوناردو داوینچی» برای خودش داشته باشد تا در کارهای مختلف از آنها استفاده کند.

اشمیت بر این باور است که برای اطمینان از اینکه بشر بدون متحمل‌ شدن خسارات از این مزایا بهره ببرد، دولت‌ها باید نظارت بر هوش مصنوعی را آغاز کنند. البته فقط او نیست که چنین نظری دارد. پیش‌ازاین، «سم آلتمن»، مدیرعامل OpenAI، نیز از دولت‌ها خواسته بود «آژانسی بین‌المللی»، شبیه آژانس انرژی اتمی، تشکیل بدهند تا از ایمنی مدل‌های هوش مصنوعی مطمئن شوند.

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.