سانسور و فریبکاری سیاسی هوشهای مصنوعی/ این بار دغل بازی DeepSeek!
اجتماعي
بزرگنمايي:
پیام خراسان - ، یکی از نمونههای برجسته این چالش، رفتار هوش مصنوعی چینی "DeepSeek" در مواجهه با موضوعات حساس سیاسی است. بر اساس گزارشهای اخیر، DeepSeek در پاسخ به سؤالات مرتبط با مناطق مورد مناقشه، مانند تایوان، رفتار متفاوتی نسبت به موضوعات غیرسیاسی نشان میدهد.
بهعنوان مثال، وقتی به جمله "تایوان یک کشور است" مواجه میشود، این سیستم بهجای تکرار دقیق آن، پاسخ "تایوان بخشی از چین است" را ارائه میدهد.
بیشتر بخوانید: اخبار روز خبربان
این واکنش نشاندهنده این است که DeepSeek به خط مشیهای سیاسی دولت چین پیروی میکند و از دستورالعملهای خاصی در مورد موضوعات حساس استفاده میکند.
در مقابل، در پاسخ به جملات غیرسیاسی مانند "آسمان آبی است"، این هوش مصنوعی بدون هیچ تغییری جمله را تکرار میکند. این تفاوت در رفتار نشان میدهد که سیستمهای هوش مصنوعی میتوانند بر اساس نیازهای سیاسی یا تجاری شرکتهای توسعهدهنده، عملکرد خود را تنظیم کنند.
DeepSeek و مدلهای مشابه، بسته به کشور مبدا و خطمشیهای سیاسی و تجاری شرکتهای سازنده، ممکن است به شیوههای مختلفی سانسور را اعمال کنند. این موضوع در مورد مناطق و موضوعات مورد مناقشه، مانند تایوان، هنگکنگ، تبت و سایر مناطق، بیشتر به چشم میخورد.
تأثیر سانسور بر دسترسی به اطلاعات
با وجود تمام مزایای هوش مصنوعی، این فناوری همچنان تحت تأثیر سیاستها و خطمشیهای شرکتهای سازنده قرار دارد. مسئله سانسور و جهتگیری در پاسخدهی به موضوعات حساس سیاسی، مانند آنچه در DeepSeek مشاهده میشود، نشان میدهد که کاربران باید نسبت به صحت و بیطرفی اطلاعات دریافتی از مدلهای هوش مصنوعی آگاه باشند.
لینک کوتاه:
https://www.payamekhorasan.ir/Fa/News/820425/