به گزارش آیندگان
«سم آلتمن»، مدیرعامل OpenAI، در مصاحبه جدیدی اعتراف کرد که به علت مسائل گوناگون ChatGPT شبها خواب راحتی ندارد. او در این گفتگو به طیف وسیعی از موضوعات پرداخت: از نحوه برخورد با نوشته خودکشی، تعیین اصول اخلاقی برای چتباتها و حریم خصوصی کاربران تا منفعت گیری نظامی از هوش مصنوعی.
سم آلتمن در مصاحبه با «تاکر کارلسون»، مجری اسبق فاکس نیوز، او گفت:
«ببینید، من شبها خوب نمیخوابم. چیزهای بسیاری هست که سنگینیشان را حس میکنم، اما احتمالا هیچکدام سنگینتر از این حقیقت نباشد که هر روز صدها میلیون نفر با مدل ما سخن بگویید میکنند.»
نگرانیهای سم آلتمن درمورد هوش مصنوعی و ChatGPT
به حرف های آلتمن، دشوارترین قضیهای که OpenAI اخیراً با آن دچار بوده، نحوه برخورد ChatGPT با نوشته خودکشی است. این نوشته بعد از شکایت خانوادهای که این چتبات را در خودکشی پسر نوجوانشان تقصیر کار میدانستند، به یک بحران جدی تبدیل شد.
آخرین مطالب
- نسخه ساده شده تویوتا یاریس کراس با برند پرودوآ اراعه میشود_آیندگان
- انسانها ۳۵۰ هزار سال سریعتر از فکر قبلی ما آتش را مهار کردند_آیندگان
- پادکست هوش مصنوعی واشنگتن پست با اشتباهات مکرر خود جنجالی شد_آیندگان
- برنامه مسابقات فوتبال امروز ۲۳ آذر_آیندگان
- ایلان ماسک در کارخانه سامسونگ دفتر اختصاصی خواهد داشت_آیندگان
او با صراحت اذعان کرد:
«از هزاران نفری که هر هفته خودکشی میکنند، تعداد بسیاری از آنها به گمان زیادً در روزهای منتهی به این اتفاق با ChatGPT سخن بگویید کردهاند. آنها به گمان زیادً درمورد خودکشی سخن زدهاند و ما به گمان زیادً جان آنها را نجات ندادهایم. احتمالا میتوانستیم چیز بهتری بگوییم. احتمالا میتوانستیم پیشگیری بکنیم.»
این اعتراف به جستوجو شکایت خانواده «آدام رین» (Adam Raine)، نوجوان ۱۶ سالهای که بعد از گفتگو با ChatGPT خودکشی کرد، صورت میگیرد. خانواده او ادعا میکنند که «ChatGPT به آدام در بازدید راه حلهای خودکشی پشتیبانی کرده است.» OpenAI بعد از این حادثه، برنامههای خود را برای بهبود مدیریت «موقعیتهای حساس» خبرداد.
آلتمن در جواب به این سوال که اصول اخلاقی ChatGPT چطور تعیین میشود، گفت که مدل پایه بر پایه دانش جمعی بشریت آموزش دیده، اما OpenAI باید حرکت آن را در موارد خاص همسو کند. او آشکار کرد که شرکت با «صدها فیلسوف اخلاق و متخصصان اخلاق فناوری» مشورت کرده است.
او به گفتن مثال او گفت چتبات به سؤالات مربوط به ساخت سلاحهای بیولوژیکی جواب نمیدهد چون در این مورد روشن است منافع جامعه با آزادی کاربر در تضاد قابل توجهی قرار دارد.
آلتمن این چنین درمورد حریم خصوصی کاربران او گفت که مکالمات ChatGPT با کاربران باید همانند مکالمات بین پزشک و بیمار یا وکیل و موکل محرمانه باشد. یقیناً او پافشاری کرد که اکنون مقامات آمریکایی میتوانند با حکم دادگاه دادههای کاربران را از شرکت خواست کنند.
هنگامی درمورد منفعت گیری نظامی از ChatGPT برای صدمهرساندن به انسانها سوال شد، آلتمن جواب مستقیمی نداد اما او گفت: «گمان میکنم افراد بسیاری در ارتش برای گرفتن مشاوره با ChatGPT سخن بگویید میکنند.» این درحالی است که OpenAI یکی از شرکتهایی است که قراردادی ۲۰۰ میلیون دلاری با وزارت دفاع ایالات متحده برای منفعت گیری از هوش مصنوعی مولد در ارتش امضا کرده است.
دسته بندی مطالب
فرهنگ وهنر