63058326 660x330 - نامه سرگشاده افشاگرانه کارمندان شرکت‌های هوش مصنوعی

نامه سرگشاده افشاگرانه کارمندان شرکت‌های هوش مصنوعی

کارکنان فعلی و سابق شرکت‌های مشهور توسعه هوش مصنوعی در نامه‌ای سرگشاده خواستار حمایت‌های قوی‌تر از افشاگران مسائل ایمنی هوش مصنوعی شده‌اند. این نامه توسط ۱۳ کارمند فعلی و سابق شرکت‌های اوپن‌ای‌آی، گوگل و آنتروپیک امضا شده است.

به گزارش پایگاه خبری دنیای برند به نقل از ایسنا، گروهی از کارمندان فعلی و سابق شرکت‌های پیشرو در حوزه هوش مصنوعی مانند اوپن‌ای‌آی‌(OpenAI)، گوگل دیپ‌مایند(Google DeepMind) و آنتروپیک(Anthropic) نامه سرگشاده‌ای را امضا کرده‌اند که خواستار شفافیت بیشتر و محافظت در برابر تلافی برای کسانی هستند که درباره نگرانی‌های بالقوه هوش مصنوعی صحبت می‌کنند.

به نقل از انگجت، در این نامه که به تازگی منتشر شده آمده است: تا زمانی که نظارت مؤثر دولت بر این شرکت‌ها وجود نداشته باشد، کارمندان فعلی و سابق از معدود افرادی هستند که می‌توانند آنها را در برابر مردم پاسخگو کنند. با این حال، توافق‌نامه‌های محرمانه گسترده ما را از ابراز نگرانی‌هایمان باز می‌دارند.

این نامه تنها چند هفته پس از تحقیقات Vox منتشر می‌شود که نشان داد شرکت اوپن‌ای‌آی تلاش کرده است کارکنانی را که اخیراً این شرکت را ترک کرده‌اند، با وادار کردن آنها به انتخاب بین امضای یک توافق‌نامه توهین آمیز یا خطر از دست دادن سهام خود در این شرکت سرکوب و ساکت کند.

پس از این گزارش، سم آلتمن مدیر عامل اوپن‌ای‌آی گفت که او واقعاً از این موضوع شرمنده شده است و ادعا کرد که این توافق‌نامه از مدارکی که باید هنگام ترک شرکت امضا شوند، حذف شده است. اگرچه مشخص نیست که آیا هنوز برای برخی از کارمندان به قوت خود باقی است یا خیر.

۱۳ امضاکننده این نامه سرگشاده شامل کارمندان سابق اوپن‌ای‌آی به نام‌های جیکوب هینتون، ویلیام ساندرز و دنیل کوکوتایلو هستند.

کوکوتایلو می‌گوید با از دست دادن اعتماد خود به اینکه هوش عمومی مصنوعی به شکل مسئولانه ایجاد می‌شود، از این شرکت استعفا داده است. هوش عمومی مصنوعی اصطلاحی برای تعریف سیستم‌های هوش مصنوعی است که به اندازه انسان هوشمند یا باهوش‌تر از انسان هستند.

این نامه که توسط کارشناسان برجسته هوش مصنوعی جفری هینتون، یوشوا بنجیو و استوارت راسل امضا شده است، نگرانی شدیدی را در مورد عدم نظارت مؤثر دولت بر هوش مصنوعی و انگیزه‌های مالی که غول‌های فناوری را به سرمایه‌گذاری در این فناوری سوق می‌دهد، ابراز می‌کند.

نویسندگان این نامه هشدار می‌دهند که توسعه بدون نظارت سیستم‌های قدرتمند هوش مصنوعی می‌تواند منجر به انتشار اطلاعات نادرست، تشدید نابرابری و حتی از دست دادن کنترل انسان بر سیستم‌های خودمختار شود و حتی به طور بالقوه منجر به انقراض انسان شود.

کوکوتایلو در شبکه اجتماعی ایکس نوشت: خیلی چیزها در مورد نحوه کار این سیستم‌ها و اینکه آیا با هوشمندتر شدن و احتمالاً پیشی گرفتن از هوش انسانی در همه زمینه‌ها مطابق با منافع انسانی باقی می‌مانند یا نه وجود دارد. هیچ نظارتی بر این فناوری وجود ندارد. درعوض ما به شرکت‌هایی که آنها را برای خودمختاری می‌سازند، تکیه می‌کنیم. در زمانی که انگیزه‌های سود و هیجان در مورد این فناوری، آنها را به سمت حرکت سریع و شکستن مرزها سوق می‌دهد، تنها افرادی که می‌توانند به مردم هشدار دهند ما هستیم.

شرکت‌های اوپن‌ای‌آی، گوگل دیپ‌مایند و آنتروپیک هنوز به درخواست خبرنگاران و رسانه‌ها برای اظهارنظر درباره این نامه پاسخ نداده‌اند. تنها سخنگوی شرکت اوپن‌ای‌آی در بیانیه‌ای که برای بلومبرگ ارسال کرده گفت که این شرکت به سوابق خود در ارائه قوی‌ترین و ایمن‌ترین سیستم‌های هوش مصنوعی افتخار می‌کند و به رویکرد علمی خود برای مقابله با خطر اعتقاد دارد. وی افزود: ما موافقیم که بحث‌های دقیق با توجه به اهمیت این فناوری بسیار مهم است و ما به تعامل با دولت‌ها، جامعه مدنی و سایر جوامع در سراسر جهان ادامه خواهیم داد.

امضاکنندگان این نامه از شرکت‌های هوش مصنوعی خواسته‌اند که به چهار اصل کلیدی زیر پایبند باشند:

  • خودداری از انتقام گرفتن از کارکنانی که نگرانی‌های ایمنی را بیان می‌کنند.
  • پشتیبانی از یک سیستم ناشناس برای افشاگران برای هشدار به مردم و نهادهای نظارتی در مورد خطرات هوش مصنوعی
  • اجازه دادن به فرهنگ انتقاد آشکار
  • پرهیز از توافق‌نامه‌های اجباری یا عدم افشا که کارمندان را از صحبت کردن درباره این موارد بازمی‌دارد.

این نامه در بحبوحه بررسی‌های فزاینده روی شیوه‌های اوپن‌ای‌آی از جمله انحلال تیم ایمنی خود و خروج چهره‌های کلیدی مانند یکی از بنیانگذاران آن به نام ایلیا ساتسکور(Ilya Sutskever) و یان لیک(Jan Leike) که از اولویت دادن معرفی محصولات چشم‌پرکن و پر زرق و برق بر ایمنی انتقاد کردند، منتشر شده است.

پایان

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *