63297851 660x330 - مدل هوش مصنوعی «دیپ‌سیک» فکر می‌کند «چت‌جی‌پی‌تی» است!

مدل هوش مصنوعی «دیپ‌سیک» فکر می‌کند «چت‌جی‌پی‌تی» است!

بررسی‌های صورت‌گرفته روی مدل جدید هوش مصنوعی«دیپ‌سیک وی۳» نشان می‌دهند که این مدل خود را «چت‌جی‌پی‌تی» معرفی می‌کند.

به گزارش پایگاه خبری دنیای برند به نقل از ایسنا، آزمایشگاه هوش مصنوعی چینی «دیپ‌سیک»(DeepSeek) اخیرا از یک مدل هوش مصنوعی باز ​​رونمایی کرد که بسیاری از رقبای خود را در معیارهای مشهور شکست می‌دهد. مدل موسوم به «دیپ‌سیک وی۳»(DeepSeek V3) بسیار کارآمد است و وظایف مبتنی بر متن را مانند کدنویسی و نوشتن مقاله به راحتی انجام می‌دهد.

به نقل از تک کرانچ، اکنون شواهد حاکی از آن هستند که دیپ‌سیک وی۳ فکر می‌کند «چت‌جی‌پی‌تی»(ChatGPT) است. پست‌های منتشرشده در پلتفرم ایکس و بررسی‌های تک کرانچ نشان می‌دهند که دیپ‌سیک وی۳ خود را به عنوان چت‌بات هوش مصنوعی شرکت «اوپن‌ای‌آی»(OpenAI) معرفی می‌کند. وقتی از دیپ‌سیک وی۳ خواسته شد تا توضیح بیشتری بدهد، اصرار کرد نسخه‌ای از مدل GPT-4  است که در سال ۲۰۲۳ منتشر شد.

توهمات این مدل هوش مصنوعی، عمیق هستند. اگر از دیپ‌سیک وی۳ سؤالی را درباره API دیپ‌سیک بپرسید، دستورالعمل‌هایی را درباره نحوه استفاده از API شرکت اوپن‌ای‌آی ارائه می‌دهد. دیپ‌سیک وی۳ حتی برخی از جوک‌های مشابه GPT-4 را بیان می‌کند.

مدل‌هایی مانند چت‌جی‌پی‌تی و دیپ‌سیک وی۳، سیستم‌های آماری هستند که روی میلیاردها داده آموزش دیده‌اند تا الگوهایی را از آنها بیاموزند و پیش‌بینی‌هایی را ارائه دهند. دیپ‌سیک اطلاعات زیادی را درباره منبع داده‌های آموزشی دیپ‌سیک وی۳ فاش نکرده است، اما هیچ کمبودی در مجموعه داده‌های عمومی حاوی متن تولیدشده توسط GPT-4 وجود ندارد. اگر دیپ‌سیک وی۳ روی این داده‌ها آموزش دیده بود، امکان داشت برخی از خروجی‌های GPT-4 را به خاطر بسپارد و اکنون آنها را کلمه به کلمه بازیابی کند.

«مایک کوک»(Mike Cook)، پژوهشگر «کینگز کالج لندن»(KCL) که در زمینه هوش مصنوعی تخصص دارد، گفت: بدیهی است که این مدل در مقطعی شاهد پاسخ‌های خام از چت‌جی‌پی‌تی باشد، اما مشخص نیست که در کدام مقطع. ممکن است این موضوع تصادفی باشد، اما متأسفانه مواردی را دیده‌ایم که افراد مستقیما مدل‌های خود را روی خروجی مدل‌های دیگر آموزش می‌دهند تا از دانش آنها استفاده کنند.

کوک خاطرنشان کرد که آموزش دادن مدل‌ها روی خروجی سیستم‌های هوش مصنوعی رقیب می‌تواند پیامدهای بسیار بدی را برای کیفیت مدل داشته باشد، زیرا توهم و پاسخ‌های گمراه‌کننده را به همراه دارد. وی افزود: این کار مانند گرفتن فتوکپی از یک فتوکپی دیگر است و موجب می‌شود اطلاعات و ارتباط با واقعیت را بیشتر از دست بدهیم.

همچنین، این کار ممکن است برخلاف شرایط خدمات آن سیستم‌ها باشد. شرایط اوپن‌ای‌آی، کاربران محصولات آن از جمله چت‌جی‌پی‌تی را از به کار بردن خروجی‌ها برای توسعه مدل‌های رقیب مدل‌های اوپن‌ای‌آی منع می‌کند.

اوپن‌ای‌آی و دیپ‌سیک به درخواست‌ها برای اظهار نظر پاسخ ندادند، اما «سم آلتمن»(Sam Altman)، مدیرعامل اوپن‌ای‌آی، یک پست جدید را در حساب ایکس خود منتشر کرد.

آلتمن نوشت: کپی کردن چیزی که می‌دانید کارآیی دارد، (نسبتا) آسان است. انجام دادن یک کار جدید، پرمخاطره و دشوار زمانی که نمی‌دانید آیا کارساز خواهد بود یا خیر، بسیار سخت است.

پایان

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *