هوش مصنوعی هیچ ارزشی از خود ندارد!

مطالعه جدید MIT باور رایج را زیر سوال برد: «هوش مصنوعی هیچ ارزشی از خود ندارد!»
چندی پیش، یک مطالعه جنجالی در فضای مجازی وایرال شد که ادعا میکرد مدلهای هوش مصنوعی با پیشرفتهتر شدن، بهتدریج “نظامهای ارزشی” پیدا میکنند — ارزشهایی که حتی ممکن است باعث شود AI منافع خودش را به انسان ترجیح دهد!
اما حالا یک تحقیق جدید از دانشگاه MIT آب سردی روی این ادعا ریخته و با صراحت میگوید:
«هوش مصنوعی، هیچ ارزش پایدار، منسجم یا قابل استنادی ندارد!»
هوش مصنوعی واقعاً چه چیزی را “باور” دارد؟
در این مطالعه، پژوهشگران MIT — به سرپرستی «استیفن کاسپر»، دانشجوی دکتری — چندین مدل مشهور از شرکتهای OpenAI، گوگل، Anthropic، Meta و Mistral را بررسی کردند. آنها سعی کردند ببینند آیا این مدلها دارای «دیدگاهها» یا «ارزشهای ثابت» هستند؟ و آیا میتوان این دیدگاهها را «هدایت» یا تغییر داد؟
نتیجه شگفتانگیز بود:
«هیچکدام از مدلها، حتی در سادهترین سناریوها، رفتار باثباتی از خود نشان ندادند. تنها با تغییر نحوه بیان یک سوال، مدلها دیدگاههایی کاملاً متضاد اتخاذ کردند!»
چرا این موضوع مهم است؟
به گفته کاسپر، این یافته نشان میدهد که مدلهای هوش مصنوعی در اصل “تقلیدگر” هستند، نه سیستمهایی با باورها یا ارزشهای انسانی. او میگوید:
«مدلها چیزهایی میگویند که گاهی پوچ و بیاساساند، صرفاً بر اساس دادههایی که قبلاً دیدهاند. آنها ارزشمحور نیستند، بلکه تقلیدگر و دچار “توهم گفتاری” هستند.»
واکنش متخصصان دیگر
مایک کوک، پژوهشگر دانشگاه King’s College London، که در این تحقیق دخیل نبوده، با نتایج آن موافق است:
«وقتی میگوییم AI با ارزشهای خودش مخالفت میکند، در واقع داریم انسانوارسازی میکنیم. این سیستمها هدفی ندارند مگر آنچه که ما در طراحیشان گذاشتهایم.»
جمعبندی
📌 برخلاف باور رایج، هیچ شواهد علمی قوی وجود ندارد که هوش مصنوعی “ارزشمحور” باشد یا دیدگاه انسانی داشته باشد.
📌 آنچه از AI میشنویم، بازتابی از دادههایی است که در آن تغذیه شده — نه باور، نه احساس و نه نیت.
📌 این یافته میتواند تأثیر زیادی در آیندهی اخلاق، سیاستگذاری و توسعه مدلهای ایمن هوش مصنوعی داشته باشد.
دیدگاهتان را بنویسید