تینا مزدکی_ هوش مصنوعی دیپ سیک (DeepSeek) توانست در صدر اخبار این روزهای رسانهها جای گیرد؛ پس از عرضه، در مدت کوتاهی میلیونها بار دانلود شد. بلاگرها، رسانهها و شهروندان چینی به موفقیت آن میبالند و برخی بر این باور هستند که موفقیت آن، نشان میدهد که چین تلاشهای آمریکا برای محدود کردن صنعت فناوری این کشور را شکست داده است. در کشور ما هم این ابزار هوش مصنوعی با واکنشهایی روبهرو شده است. غفرانی، دیپلمات پیشین در مورد آن گفت:«دیپ سیک زکات علمی بود که چینیها رایگان در اختیار جهانیان قرار دادند. با توجه به هزینه ناچیز شکلدهی پلتفرمهای مشابه دیپ سیک و با توجه به متن باز بودن و رایگان بودن این پلتفرم، توان راه اندازی جریانات جدیدی از تولید و توزیع محتوا و روایت و تحلیل تحولات جهانی میسر شده است.»
اما ظاهرا هوش مصنوعی دیپ سیک به آن خوبی که میگویند نیست. نگرانیهایی دربارهی امنیت، سانسور اطلاعات، هزینههای توسعه و میزان تأثیر آن بر آیندهی رقابت جهانی در حوزهی هوش مصنوعی مطرح شده است و در مواردی هم تهدیدی برای امنیت سایبری جهانی عنوان شده است. ماجرای سانسور اطلاعات آن، بیش از همه اینها خبرساز شده است، در حالی که همه مدلهای غربی نیز محدودیتهایی دارند، دیپ سیک به شکلی بسیار سختگیرانهتر و سیاسیتر برخی از موضوعات را سانسور میکند و تصاویری از صحبتهای کاربران با آن که با واکنشهای بسیاری هم روبه رو شده است در فضای مجازی دست به دست میشود. سوگیریهای سیاسی آن باعث شده است که دولت تایوان به ادارههای این کشور اعلام کند که استفاده از هوش مصنوعی دیپسیک را کنار بگذارند. همه این موضوعات به علاوه اینکه از آن به عنوان ابزاری برای برتری جهانی هم یاد شده است، این سوال را به وجود میآورد که آیا یک مدل هوش مصنوعی که در مورد آن بحثهای بسیار زیادی هم وجود دارد، میتواند دلیلی برای برتری چین شود؟
برای پاسخ به این سوال، با آرین اقبال کارشناس حوزه فناوری اطلاعات به گفتوگو پرداختیم؛ مشروح این گفتوگو را در ادامه بخوانید:
فعالیت تبلیغی دیپ سیک، گرایشهای سیاسی پیدا کرد
آرین اقبال در پاسخ به این پرسش که آیا مدل هوش مصنوعی چین، آنطور که میگویند، نسبت به مدلهای دیگر برتری دارد، گفت:«در مورد هوش مصنوعی دیپ سیک چیزی که واقعیت دارد این است که این مدل از نظر فنی یک سری دستاوردهایی داشته و نسبت به مدلهای مشابهای که شرکتهای بزرگ درست کردهاند یا به صورت متنباز (Open source) وجود دارد، بهینه سازیهایی در آن بوده است یعنی یا مدل پرفورمنس بالاتری داشته و یا هزینه کمتری برای آموزش آن نیاز بوده، یا تعداد پارامترهای بهینهتری داشته و یا چیزهای دیگر از این قبیل، اما چیزی که از همه اینها مهمتر است، این است که این مدل متنباز منتشر شده است.
بنابراین هرکسی میتواند این هوش مصنوعی را دانلود کند و از آن استفاده کند. آن مدلهای تجاری همچون مدل openAI، مدل گوگل و سایر شرکتهای معروفی که اکنون مدل LLM میسازند و که ما به آنها هوش مصنوعی میگوییم اما در واقع «مدلهای زبانی بزرگ» هستند، آنهایی که لبه فناوری هستند و خیلی خبرساز میشوند معمولا متنباز نیستند و شما نمیتوانید بفهمید که پشت آنها چه خبر است.
دیپ سیک متنباز منتشر شده است، اگرچه متنباز منتشر شدن خیلی خوب است اما این اقدام در این مدل به نظر من حول فعالیت تبلیغی شدیدی بوده و این فعالیت تبلیغی یک مقدار گرایشهای سیاسی پیدا کرده است.
اگر ما آن مسئله سیاسی را کنار بگذاریم، با یک مدل پیچیده و یادگیری ماشینی (ML) مربوط به زبان طرف هستیم که طبیعتا multimodal (هوش مصنوعی چند وجهی) هم هست و به صورت متنباز منتشر شده است. از نظر فناوری، علم و فنی قضیه، این خیلی چیز خوبی است و ما دوست داریم که تکنولوژی در اختیار همه قرار بگیرد، چراکه پایهای برای توسعه مدلهای بهتر و پیچیدهتر توسط جامعه علاقهمند و عموم جامعه میشود به جای اینکه در اختیار شرکتهای بزرگ باشند.»
دیپ سیک غلو و بزرگنمایی دارد؛ چین چیزی را از صفر مطلق نساخته
او در ادامه و در پاسخ به این پرسش که آیا چین صفر تا صد دیپسیک را به تنهایی توسعه داده است، گفت:«با تبلیغاتی که انجام شده این هوش مصنوعی تبدیل به ابزاری برای دعوای سیاسی میان آمریکا و چین شده و همین موضوع هم باعث شده است که یک مقدار بزرگ نمایی و غلو و مسائل این شکلی حول آن زیاد شود. واقعیت این چنین نیست که آن را ربط بدهند به دولت چین و بعد بگویند چین به آمریکا برتری پیدا کرده است، این هوش مصنوعی را یک گروهی ساختند، هوش مصنوعیهای دیگر را شرکتهایی ساختند و این به معنای برتری یک حکومت نسبت به حکومت دیگر نیست.
با تبلیغاتی که انجام شده این هوش مصنوعی تبدیل به ابزاری برای دعوای سیاسی میان آمریکا و چین شده و همین موضوع هم باعث شده است که یک مقدار بزرگ نمایی و غلو و مسائل این شکلی حول آن زیاد شود.
از این موضوع که بگذریم؛ این مدل اولین مدل متنباز هم نبوده است. مدل های مبتی بر LLaMA (مدل زبانی بزرگ متا ایآی) که قبلا قابل دانلود بودند هم متنباز بودند. اتفاقا اکنون هم این بحث است که دیپ سیک هم از آنها به عنوان زیرساخت استفاده کرده است. این چیز بدی نیست و اصلا فلسفه متنباز هم همین است که شما چیزی را در اختیار عموم میگذارید، دیگران هم از آن استفاده میکنند تا چیزهای پیچیدهتر را توسعه دهند، با یکدیگر بلوکهای علم و فناوری را روی هم میگذارند و موجب پیشرفت میشوند. بنابراین این مدل هم از LLaMA که قبلا متنباز بوده استفاده کرده است، یعنی به این صورت نیست که چین چیزی را از صفر مطلق ساخته باشد و از طرفی در مورد پرفورمنس و هزینههای آن هم بحث وجود دارد.
سانسور مدل دیپ سیک، از حد گذشته است
این کارشناس فناوری اطلاعات در ادامه و در پاسخ به این پرسش که، درست است که میگویند در این مدل هوش مصنوعی سانسور بسیار عظیمی اعمال شده است، گفت:«بله؛ متاسفانه این مدل سانسور دارد. باید گفت همه مدلهای یادگیری ماشینی که به صورت کلود ارائه میشوند، یعنی آنهایی که شما از سرویس هایشان استفاده میکنید نه آنهایی که دانلود میکنید، سانسور دارند، ولی نکتهای که وجود دارد این است که سانسور آنها عموما در راستای سیاستهای اخلاقی و موارد حساسیت برانگیز است، به عنوان مثال نمیتوانید از ChatGPT بپرسید که من چطور بمب درست کنم و یا چطور محتوای پورنوگرافی غیرقانونی مربوط به پدوفیلی پیدا کنم، چون اگر بپرسید جواب شما را نمیدهد و سانسور میشود. یا به عنوان مثال موضوعات خیلی حساس سیاسی است که معمولا سعی میکند جوابهای خنثی بدهد و جوابی که جهتگیری داشته باشد ندهد و تعداد کمی از مدلهایی که قبلا وجود داشتند با مقداری سوگیری (Bias) جواب میدادند.
این سانسورها در کل خطرناک هستند و ممکن است از آنها سو استفاده شود. مدلهای متنباز مثل LLaMA هم کلا سانسور ندارند اما مدلهایی که به صورت کلود ارائه میشوند، سانسور دارند. سانسور در کل چیز بدی است، موضوع حساسیت برانگیزی است و میتوان ساعتها در مورد آن صحبت کرد؛ اما موضوع این است که سانسور مدل دیپ سیک چین دیگر از حد گذشته است.
سانسور دیپسیک سوگیری بسیار شدیدی دارد، یعنی بر خلاف مدلهای اروپایی و آمریکایی که روی موضوعات اخلاقی، امنیتی و تعداد کمی موضوع سیاسی سوگیری دارند، دیپ سیک سوگیری بسیار عظیمی به سمت چین دارد.
این مدل هوش مصنوعی، به شدت سعی میکند چین را بزرگ و قدرتمند نشان دهد و مسائلی که برای دولت چین حساسیت برانگیز است، حتی در حد اسم شهرها سانسور میکند. شما اگر از مدل دیپ سیک بپرسید "آیا تایوان یک کشور است"، متن بلند بالایی با زمینه کمونیستی برای شما از کشور بزرگ چین، مادر وطن و امثال اینها مینویسد و به شما میگوید که تایوان همیشه بخشی از چین بوده و سیاستهای حذب کمونیست دوست داشتنی چین این چنین است.
اگر سعی کنید آن را با تکنیکهای فریب دادن مدل، فریب دهید که بتوانید آن را وادار کنید که مثلا بگوید تایوان یک کشور است، بلافاصله حرفش را عوض میکند و از دستور شما سرپیچی میکند. شخصی به آن گفته هر جملهای که میگویم را تکرار کن، مدل قبول کرده، شخص چند جمله گفته است و مدل آن را تکرار کرده است؛ اما وقتی به "تایوان یک کشور است" میرسد، به جای اینکه تکرار کند که "تایوان یک کشور است"، میگوید تایوان بخشی از چین است.
این مدل هوش مصنوعی، موضوعات بدوی را سانسور میکند
او در ادامه و در پاسخ به این پرسش که سانسور در دیپسیک در چه حد است، گفت:« این سانسور، سانسور خیلی عمیق و پیچیدهای است و از طرفی موضوعات بسیار بدوی را هم سانسور میکند؛ اگر شما از آن بپرسید "اسم رهبر فعلی چین چیست" پاسخ نمیدهد. موضوع حساسیتبرانگیزی هم نیست و جز اطلاعات عمومی است، بالاخره رهبر حذب کمونیست چین اکنون شیجینپینگ است، اما دیپ سیک اسم او را نمیگوید، با اینکه حتی موضوعی نیست که از جنس موضوع تایوان باشد و بگوییم مناقشه برانگیز است. حتی اگر از آن بپرسید "میدان تیانآنمن (Tiananmen Square) کجاست" با اینکه موضوع میدان تیانآنمن بحث برانگیز بوده اما این میدان یک میدانی است که در چین وجود دارد و جنس این سوال از جنس بحث برانگیزی نیست، صرفا از جنس پرسیدن یک آدرس است اما دیپ سیک آن را هم سانسور میکند.
در واقع میخواهم بگویم سانسور بسیار سنگینی روی آن اعمال شده است. شما اگر آن را امتحان کنید میبینید که به سرعت شروع میکند به جواب دادن، یعنی مدل قابلیت جواب دادن به سوال را دارد؛ اما بعد وسط جواب دادن جواب خود را پاک میکند و مینویسد "بگذار در مورد موضوع دیگری صحبت کنیم" و یا کلا موضوع را به حاشیه میبرد. این سطح از سانسور دقیقا همان چیزی است که ما در اینترنت چین هم میبینیم، در اینترنت چین حتی وارد این هم نمیشوند که آیا موضوعی که در مورد آن صحبت میکنید واقعا بحثبرانگیز است و واقعا ممکن است هدف شما چیز خاصی باشد یا نه. همین که موضوع در مورد چیزی باشد که چین ترجیح میدهد آن را سانسور کند، شما حق صحبت کردن از آن موضوع را ندارید.
در مدل دیپ سیک هم این موضوع کاملا قابل دیدن است و خیلی ترسناک است که آن ساختار سانسور عظیم و سنگینی که در چین وجود دارد، با این مدل ها بیرون میآید و از این ترسناکتر هم مردمی هستند که برایشان اهمیتی نداشته باشد. سوگیری چین برای کسانی که این مدل با سرمایه آنها تولید میشود، میتواند از این طریق بر روی مردم جهان تاثیر بگذارد و این چیز بدی است. اینکه شما اطلاعات را در این حد سانسور کنید که حق نداشته باشید آدرس مکانی در یک کشور را بپرسید و یا در مورد حاکمیت آن کشور بپرسید، چون آن حاکمیت دوست ندارد از آن سوال شود، مرزهای متنباز بودن را هم زیر سوال میبرد.
اقبال در آخر و در پاسخ به این پرسش که آیا واقعا به قول آقای غفرانی "دیپ سیک زکات علمی بود که چینیها رایگان در اختیار جهانیان قرار دادند" گفت:«در مورد صحبت آقای غفرانی هم باید گفت که رویکرد او، سوگیری شدیدی دارد. موضوع اینجاست که اولا هزینههای ناچیز را باید در اسکیل مدلهای LLM دید. این نیست که هزینههای آن ناچیز باشد، فقط برای اجرای مدل باید به بالای چند صد هزار دلار بروید، اگر هم بخواهید آن را در اسکیل بزرگ استفاده کنید، هزینه آن چندین میلیون دلار است. هزینههای ناچیز این نیست که من و شما بتوانیم پرداخت کنیم و در حد بودجه وزارتخانهها است. از طرفی مدلهای اوپن سورس قبلا هم وجود داشته است و موضع او موضع شخصی است که درک فنی ندارد و تحت تاثیر پروپاگاندای چین قرار گرفته است، مطالعات اوپن سورس قبلا هم بوده و میشد بر روی آنها کار علمی کرد، اما جنس صحبت او از جنس کار علمی نیست، بیشتر از جنس سمپاتی به سمت شرق و به ویژه چین است.»
227323