بازهم در باب خطرات هوش مصنوعی

0 ۱۶

مقدمه

سم آلتمن(Sam Altman) فکر می‌کند فناوری که زیربنای معروف‌ترین محصول شرکتش است می‌تواند به پایان تمدن بشری منجر شود اما همچنان می‌خواهد از این فناوری استفاده کند.

در ماه مه، سم آلتمن، مدیر عامل شرکت اُپن ای‌آی(OpenAI)، با ارائه یک درخواست فوری از قانونگذاران به اتاق استماع کمیته فرعی سنا در واشنگتن دی سی رفت.

درخواست او این بود که مقررات فکر شده‌ای ایجاد شود که وعده‌های پر قدرت هوش مصنوعی را در بر بگیرد در حالی که خطر غلبه آن بر بشریت را کاهش می‌دهد. این لحظه‌ای تعیین کننده برای او و آینده هوش‌ مصنوعی بود.

هوش مصنوعی:مزایا و مضار

با رونمایی از هوش مصنوعی چت جی‌پی‌تی شرکت اُپن ای‌آی در اواخر سال گذشته، آلتمن ۳۸ ساله یک شبه تبدیل به آینه تمام‌نمای ابزار جدیدی از هوش مصنوعی شد. ابزاری که می‌تواند تصاویر و متون را در پاسخ به درخواست‌های کاربران تولید کند. این فناوری، هوش مصنوعی مولد نام گرفت.

مدت کوتاهی پس از رونمایی، چت‌جی‌پی‌تی تبدیل به نامی شد که تقریبا مترادف با خود هوش مصنوعی در نظر گرفته می‌شد.

مدیران از آن برای پیش‌نویس ایمیل‌ها استفاده می‌کردند، مردم بدون تجربه قبلی در زمینه کدنویسی وب‌سایت‌ ایجاد می‌کردند و امتحان‌هایی را از دانشکده‌های حقوق و بازرگانی می‌گذراندند. این ابزار پتانسیل این را دارد که تقریبا هر صنعتی، از جمله آموزش، امور مالی، کشاورزی و مراقبت‌های بهداشتی از جراحی‌ها گرفته تا تولید واکسن‌های دارویی را متحول کند.

اما همین ابزار نگرانی‌هایی نیز به وجود آورده است. از تقلب در مدارس و جایگزین شدن کارگران انسانی گرفته تا حتی یک تهدید برای حیات بشریت.

به عنوان مثال، ظهور هوش مصنوعی باعث شده که اقتصاددانان نسبت به بازار کار هشدار دهند.

بر اساس برآورد گلدمن ساکس، حدود ۳۰۰ میلیون شغل تمام وقت در سراسر جهان در نهایت ممکن است به نوعی توسط هوش مصنوعی مولد خودکار شود. بر اساس گزارش ماه آوریل مجمع جهانی اقتصاد، حدود ۱۴ میلیون موقعیت شغلی تنها در عرض پنج سال آینده ناپدید خواهد شد.

آلتمن در شهادت خود در مقابل اعضای کنگره گفت که پتانسیل هوش مصنوعی برای دستکاری رای دهندگان و هدف قرار دادن اطلاعات نادرست یکی از نگرانی‌های من است.

دو هفته پس از جلسه استماع، آلتمن به صدها دانشمند، محقق و رهبر کسب‌وکار برتر هوش مصنوعی پیوست و نامه‌ای را امضا کرد که در آن آمده بود: کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند همه‌گیری‌ها و جنگ هسته‌ای، به عنوان یک اولویت جهانی در نظر گرفته شود.

خطرات جدی هوش مصنوعی

این هشدار به طور گسترده در مطبوعات پوشش داده شد و برخی معتقد بودند که نشان می‌دهد باید چنین سناریوهای آخرالزمانی جدی‌تر گرفته شود. این موضوع همچنین یک پویایی مهم در سیلیکون‌ولی را نمایان می‌کند.

مدیران ارشد برخی از بزرگترین شرکت‌های فناوری به مردم می‌گویند که هوش مصنوعی پتانسیل انقراض انسان را دارد و همچنین برای سرمایه‌گذاری و به کارگیری این فناوری در محصولاتی که میلیاردها نفر در اختیار دارند رقابت می‌کنند.

اگرچه آلتمن، یک کارآفرین قدیمی و سرمایه‌گذار سیلیکون‌ولی است اما در سال‌های اخیر تا حد زیادی از کانون توجه دور بوده است اما در ماه‌های اخیر نگاه‌ها به او به‌ عنوان عنصر اصلی انقلاب هوش مصنوعی معطوف شده است.

این همچنین او را در معرض دعوی قضایی، بررسی نظارتی و ستایش و محکومیت در سراسر جهان قرار داده است. با این حال، آن روز در مقابل کمیته فرعی سنا، آلتمن رونق فعلی فناوری را به عنوان یک لحظه مهم توصیف کرد.

او گفت: آیا هوش مصنوعی مانند چاپخانه‌ای خواهد بود که دانش، قدرت و یادگیری را به طور گسترده در سرتاسر جهان منتشر می‌کند و به افراد عادی قدرت می‌دهد تا به شکوفایی بیشتر منجر می‌شود که برتر از همه منجر به آزادی بیشتر می‌شود؟ یا این که بیشتر شبیه به بمب اتمی خواهد بود که عواقب وحشتناک آن تا به امروز ما را آزار می‌دهد؟

آلتمن مدت‌هاست که خود را به عنوان فردی معرفی کرده است که مراقب خطرات ناشی از هوش مصنوعی است و متعهد شده که مسئولانه رو به جلو حرکت کند.

او یکی از چندین مدیر عامل حوزه فناوری است که با رهبران کاخ سفید، از جمله معاون رئیس جمهور کامالا هریس و رئیس جمهور جو بایدن، ملاقات می‌کند تا بر اهمیت توسعه هوش مصنوعی اخلاقی و مسئولانه تأکید کند.

دیگران می‌خواهند آلتمن واُپن‌ای‌آی با احتیاط بیشتری حرکت کنند.

هوش مصنوعی و بزرگان فن اوری

ایلان ماسک، که پیش از جدا شدن از این گروه، به ایجاد اُپن‌ای‌آی کمک کرد، و ده‌ها رهبر فناوری، استادان و محققین آزمایشگاه‌های هوش مصنوعی می‌خواهند که اُپن‌ای‌آی آموزش قوی‌ترین سیستم‌های هوش مصنوعی را به مدت دستکم شش ماه متوقف کند. آن‌ها به خطرات عمیقی که برای جامعه و انسانیت وجود دارد، استناد می‌کنند.

در همان حال، برخی از کارشناسان این سوال را مطرح کردند که آیا کسانی که نامه را امضا کرده‌اند به دنبال حفظ برتری رقابتی خود نسبت به سایر شرکت‌ها هستند یا خیر.

آلتمن می‌گوید که با بخش‌هایی از نامه موافق است، از جمله اینکه «محدوده ایمنی باید افزایش یابد، اما گفت که توقف آموزش «راهی بهینه» برای رسیدگی به چالش‌ها نخواهد بود. با این وجود، اُپن‌ای‌آی پای خود را محکم روی پدال گاز فشار می‌دهد.

به تازگی گزارش شده است که جانی ایو(Jony Ive)، طراح آیفون و اُپن‌ای‌آی در حال مذاکره برای جمع‌آوری یک میلیارد دلار از شرکت ژاپنی سافت‌بنک SoftBank برای ایجاد یک دستگاه هوش مصنوعی به عنوان جایگزین تلفن هوشمند بوده است.

آرون لوی(Aaron Levie)، مدیر عامل شرکت ابری سازمانی باکس و دوست قدیمی آلتمن که با او در دنیای استارت‌آپ آشنا شده، به سی‌ان‌ان گفته است که آلتمن «درون‌نگر» است و می‌خواهد درباره ایده‌ها بحث کند، دیدگاه‌های مختلف را دریافت کند و بازخورد روی هر چیزی که روی آن کار میکند را بی‌نهایت تشویق می‌کند.

لوی گفت: من همیشه می‌دانستم که او به طرز باورنکردنی در مورد ایده‌های خود انتقادی است و مایل است هر نوع بازخوردی را در مورد هر موضوعی که در طول سال‌ها با آن درگیر بوده، دریافت کند.

اما برن الیوت(Bern Elliot)، تحلیلگر موسسه تحقیقاتی گارتنر، به این کلیشه معروف اشاره کرد: که قرار دادن همه تخم مرغ‌ها در یک سبد خطراتی دارد، مهم نیست چقدر به کاری که می‌کنید مطمئن هستید.

او افزود: خیلی اتفاقات ممکن است برای یک سبد رخ دهد.

چالش‌های پیش رو

آلتمن هنگام تاسیس اُپن‌ای‌آی در سال ۲۰۱۵ به سی‌ان‌ان‌گفت که می‌خواست در مسیر هدایت هوش مصنوعی باشد، نه اینکه نگران آسیب‌های احتمالی آن باشد و کاری انجام ندهد. او گفت: من اکنون بهتر می‌خوابم زیرا می‌دانم می‌توانم تاثیرگذار باشم.

آلتمن به رغم موقعیت خود می‌گوید که همچنان نگران این فناوری است. او در سال ۲۰۱۶ گفت: من برای بقا آماده می‌شوم. او به چندین سناریو فاجعه‌بار اشاره کرد که شامل حمله هوش مصنوعی به ما بود.

او گفت: من اسلحه، طلا، یدید پتاسیم، آنتی‌بیوتیک، باتری، آب، ماسک‌های ضدگاز دارم و همچنین یک قطعه زمین بزرگ در بیگ سور که می‌توانم به آنجا پرواز کنم.

با این حال، برخی از کارشناسان صنعت هوش مصنوعی می‌گویند که تمرکز بر سناریوهای آخرالزمانی ممکن است توجه‌ها را از آسیب‌های محتمل‌تری که نسل جدید ابزارهای قدرتمند هوش مصنوعی می‌تواند برای مردم و جوامع ایجاد کند، منحرف کند.

روآن کوران(Rowan Curran)، تحلیلگر شرکت تحقیقات بازار فارستر(Forrester)، نگرانی‌های مشروع در مورد اطمینان از اینکه داده‌های آموزشی، به‌ویژه برای مدل‌های عظیم، دارای حداقل سوگیری هستند یا دارای سوگیری قابل درک و قابل کاهش هستند را تایید کرد.

سم آلتمن: من اکنون بهتر می‌خوابم زیرا می‌دانم می‌توانم تاثیرگذار باشم. او گفت: ایده آخرالزمان هوش مصنوعی به‌ عنوان یک سناریوی واقع‌بینانه که هر نوع خطری را برای بشریت به‌ ویژه در کوتاه‌مدت و میان‌مدت ارائه می‌کند، صرفا بر پایه حدس و گمان است.

تمرکز مداوم بر این موضوع به‌عنوان یکی از خطرات بزرگی که همراه با پیشرفت هوش مصنوعی به وجود می‌آید، توجه‌ها را از چالش‌های واقعی امروز برای کاهش آسیب‌های فعلی و آتی ناشی از داده‌ها و مدل‌هایی که به‌طور ناعادلانه توسط کاربران انسانی استفاده می‌شوند، منحرف می‌کند.

رئیس‌ جمهور بایدن شاید در بزرگترین تلاش گسترده تا به امروز، اوایل هفته از فرمانی اجرایی رونمایی کرد که بر اساس آن، توسعه‌دهندگان سیستم‌های هوش مصنوعی قدرتمند باید نتایج آزمایش‌های ایمنی خود را قبل از انتشار برای عموم با دولت فدرال به اشتراک بگذارند. در صورتی که پای خطرات امنیت ملی، اقتصادی یا سلامت در میان باشد.

هوش مصنوعی و مقامات دولتی

پس از جلسه استماع سنا، امیلی بندر(Emily Bender)، استاد دانشگاه واشنگتن و مدیر آزمایشگاه زبان شناسی محاسباتی آن در مورد آینده هوش مصنوعی حتی اگر به شدت تحت نظارت باشد، ابراز نگرانی کرد و گفت: اگر آنها صادقانه معتقدند که این فناوری می‌تواند منجر به انقراض بشر شود، پس چرا آن را متوقف نمی‌کنند؟

مارگارت اومارا(Margaret O’Mara)، مورخ فناوری و استاد دانشگاه واشنگتن، می‌گوید که سیاست‌گذاری خوب نه فقط توسط یک یا چند نفر بلکه باید با توجه به دیدگاه‌ها و منافع متعدد و در نظر گرفتن منافع عمومی شکل بگیرد.

اومارا با اشاره به شباهت‌های دنیای فیزیک هسته‌ای قبل و در طول توسعه بمب اتمی پروژه منهتن گفت: چالش با هوش مصنوعی این است که تعداد بسیار کمی از افراد و شرکت‌ها واقعا می‌دانند که چگونه کار می‌کند و پیامدهای استفاده از آن چیست.

نتیجه گیری

با این حال، اومارا گفت بسیاری از افراد در صنعت فناوری به دنبال این هستند که آلتمن نیرویی باشد که جامعه را با هوش مصنوعی متحول می‌کند اما آن را ایمن نگه می‌دارد.

او گفت: این شبیه کاری است که بیل گیتس و استیو جابز برای رایانه شخصی در اوایل دهه ۱۹۸۰ و نرم‌افزار در سال ۱۹۹۰ انجام دادند. امید می‌رود که بتوانیم فناوری‌ داشته باشیم که اوضاع را بهتر می‌کند.

جهان روی آلتمن حساب می‌کند تا در برابر فناوری که به اذعان خودش می‌تواند یک سلاح کشتار جمعی باشد، به نفع بشریت عمل کند.

منبع https://edition.cnn.com/2023/06/09/tech/korea-altman-chatgpt-ai-regulation-intl-hnk/index.html

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.

× ثبت نوبت آنلاین