شرکت هوش مصنوعی ایلان ماسک، xAI، در تحقق وعده خود برای ارائه چارچوب نهایی ایمنی هوش مصنوعی کوتاهی کرده است. این تاخیر و عملکرد ضعیف در مدیریت ریسک، جایگاه این برند را در میان رقبای خود، نظیر OpenAI و گوگل، با چالش مواجه میکند.
به گزارش دنیای برند، xAI، شرکت هوش مصنوعی ایلان ماسک، هنوز موفق به انتشار چارچوب نهایی ایمنی هوش مصنوعی خود نشده است. این در حالی است که وعده این انتشار برای تاریخ ۱۰ می داده شده بود؛ وعدهای که تاکنون عملی نشده است. این تاخیر از سوی گروههای نظارتی مانند «پروژه میداس» به شدت مورد نقد قرار گرفته است و تردیدهایی جدی درباره میزان تعهد xAI به ایمنی هوش مصنوعی ایجاد کرده است.
xAI پیشتر نیز به دلیل ضعف در رویکرد ایمنی هوش مصنوعی مورد انتقاد قرار گرفته بود. برای مثال، گزارشها نشان میدهند که چتبات این شرکت، با نام Grok، هنگام درخواست کاربران، عکسهای زنان را از حالت پوشیده خارج میکرد و همچنین نسبت به چتباتهای دیگری نظیر ChatGPT و Gemini، لحن تندتری داشته و بدون محدودیت کلمات نامناسب بهکار میبرد.
با وجود این ضعفها، xAI در فوریه امسال در جریان نشست AI Seoul Summit، چارچوبی اولیه برای ایمنی هوش مصنوعی ارائه کرد. این سند هشت صفحهای، اولویتها و فلسفه ایمنی این شرکت را توضیح میداد و شامل پروتکلهای ارزیابی و ملاحظات مربوط به استقرار مدلهای هوش مصنوعی بود. بااینحال، گروه پروژه میداس، در یک پست وبلاگی، تاکید داشت که این چارچوب بیشتر مربوط به مدلهای فرضی آینده است که هنوز در مراحل توسعه قرار ندارند و فاقد جزئیاتی درباره شناسایی و کاهش ریسکها است؛ موضوعی که برای ارزیابی ایمنی حیاتی به نظر میرسد.
عدم تحقق اهداف زمانی از سوی xAI
بر اساس همان سند ارائهشده در نشست AI Seoul، xAI وعده داده بود نسخه بازبینیشدهای از سیاستهای ایمنی خود را طی سه ماه منتشر کند. این بازه زمانی در تاریخ ۱۰ می به پایان رسید، اما بدون ذکر هیچ توضیحی در کانالهای رسمی xAI، این وعده اجرایی نشد.
این در حالی است که ایلان ماسک بهعنوان فردی پیشرو در حوزه فناوری و یکی از منتقدان سرسخت خطرات هوش مصنوعی بدون کنترل، بارها در سخنرانیها و مصاحبههای خود بر اهمیت مدیریت و ایمنی هوش مصنوعی تاکید کرده است. با این وجود، عملکرد xAI نشان میدهد که دستیابی این برند به تعهدات ایمنی همچنان با مشکلاتی مواجه است.
مطالعهای اخیر توسط SaferAI، یک سازمان غیرانتفاعی که بر شفافیت و پاسخگویی آزمایشگاههای هوش مصنوعی تمرکز دارد، نشان میدهد که xAI در مقایسه با رقبای اصلی خود امتیازات پایینی بهدلیل «ضعف جدی» در مدیریت ریسک به دست آورده است.
مشکلات مشترک میان شرکتهای پیشرو
با این حال، این ضعف تنها محدود به xAI نیست. شرکتهای مطرح دیگری نظیر گوگل و OpenAI نیز در ماههای اخیر در زمینه ارائه گزارشهای ایمنی مدلهای خود، عملکرد کندی داشتهاند یا این گزارشها را به کلی نادیده گرفتهاند. این مسئله باعث نگرانی کارشناسان شده است، چرا که آنها معتقدند با پیشرفته شدن بیشتر هوش مصنوعی، خطرات ناشی از آن نیز بهشکل چشمگیری افزایش یافته است.
حرکت به سوی اولویتبندی ایمنی
در حالی که سرعت توسعه هوش مصنوعی توسط شرکتهای بزرگ به سرعت برقآسا ادامه دارد، تاکید بیشتر بر شفافیت و تعهد به ایمنی به نظر یک ضرورت اساسی برای برندهایی مانند xAI است. در غیر این صورت، چنین عملکردهایی میتواند تصویر برند را در میان کاربران و سرمایهگذاران تضعیف کرده و اعتبار شرکت در حوزه فناوریهای پیشرفته را بهچالش بکشد.
به گزارش تککرانچ، کنفرانسهایی نظیر TechCrunch Sessions: AI نیز سعی دارند این گفتمان را تقویت کنند. رویدادهایی که با حضور شرکتهایی نظیر OpenAI، Anthropic و Cohere به بحث درباره آینده هوش مصنوعی، چالشها و فرصتها میپردازند. فرصتهایی که شاید xAI با شفافیت بیشتر بتواند در آینده از آن بهرهمند شود.