مجله خبری ارس مگ

نایب رئیس مایکروسافت: «ما به کارمندان خود اجازه استفاده از برنامه دیپ‌سیک را نمی‌دهیم»

نایب رئیس مایکروسافت: «ما به کارمندان خود اجازه استفاده از برنامه دیپ‌سیک را نمی‌دهیم»

«برد اسمیت»، نایب رئیس هیئت مدیره مایکروسافت، به‌تازگی در جلسه استماع سنا گفت که کارمندان مایکروسافت به دلیل نگرانی‌های امنیتی داده‌ها، مجاز به استفاده از دیپ‌سیک نیستند. براساس گزارش تک‌کرانچ، برد اسمیت در صحبت‌های اخیرش در سنا به هوش مصنوعی چینی DeepSeek اشاره کرد. او گفت: «در مایکروسافت، ما به…

- اندازه متن +

«برد اسمیت»، نایب رئیس هیئت مدیره مایکروسافت، به‌تازگی در جلسه استماع سنا گفت که کارمندان مایکروسافت به دلیل نگرانی‌های امنیتی داده‌ها، مجاز به استفاده از دیپ‌سیک نیستند.

براساس گزارش تک‌کرانچ، برد اسمیت در صحبت‌های اخیرش در سنا به هوش مصنوعی چینی DeepSeek اشاره کرد. او گفت: «در مایکروسافت، ما به کارمندان خود اجازه استفاده از برنامه دیپ‌سیک را نمی‌دهیم.» اسمیت گفت که مایکروسافت به دلیل این نگرانی‌ها، DeepSeek را در اپ استور خود قرار نداده است. اگرچه بسیاری از سازمان‌ها و حتی کشورها محدودیت‌هایی را برای دیپ‌سیک اعمال کرده‌اند، اما این اولین‌بار است که مایکروسافت درمورد چنین ممنوعیتی علنی صحبت می‌کند.

ممنوعیت دیپ‌سیک در مایکروسافت

ممنوعیت دیپ‌سیک در مایکروسافت
برد اسمیت

برد اسمیت گفت که این محدودیت به دلیل خطر ذخیره داده‌ها در چین و پاسخ‌های چت‌بات دیپ‌سیک برپایه پروپاگاندا چینی‌ها اعمل شده است. سیاست حفظ حریم خصوصی DeepSeek بیان می‌کند که داده‌های کاربران را در سرورهای چینی ذخیره می‌کند. دیپ‌سیک نیز تابع قانون چین است که همکاری با سازمان‌های اطلاعاتی این کشور را الزامی می‌کند. ازسویی این شرکت هوش مصنوعی موضوعاتی را که توسط دولت چین حساس تلقی می‌شوند، به شدت سانسور می‌کند.

به‌رغم انتقادهای اسمیت درباره DeepSeek، مایکروسافت مدل R1 این شرکت چینی را اوایل 2025 در سرویس ابری Azure خود ارائه داد. بااین‌حال از آنجایی که دیپ‌سیک متن‌باز است، هر کسی می‌تواند این مدل را دانلود و آن را در سرورهای خود ذخیره کند و بدون ارسال داده‌ها به چین آن را به مشتریان خود ارائه دهد.

بااین‌حال، این امر خطرات دیگری مانند پخش تبلیغات یا تولید کد ناامن را از بین نمی‌برد. در جلسه سنا، اسمیت گفت که مایکروسافت موفق شده است وارد مدل هوش مصنوعی DeepSeek شود و آن را تغییر دهد تا پیامدهای مضر را حذف کند. مایکروسافت دقیقاً توضیح نداده که با مدل دیپ‌سیک چه‌کار کرده است. مایکروسافت همچنین هنگام عرضه دیپ‌سیک در Azure گفت که این هوش مصنوعی قبل از عرضه در Azure، تحت «ارزیابی‌های دقیق تیم قرمز و ایمنی» قرار گرفته است.

درباره نویسنده

Jolfa Developer

submit comment
0 دیدگاه

نظر شما در مورد این مطلب چیه؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *