تصور کنید هر روز صبح کسی تصمیم بگیرد که چه بخوانید، چه ببینید و حتی چه فکری کنید. این دقیقاً همان کاری است که الگوریتم‌های شبکه‌های اجتماعی انجام می‌دهند.

نگین روزبهانی
سه‌شنبه ۱۲ فروردین ۱۴۰۴ - ۱۳:۵۹
چه کسی ذهن ما را کنترل می‌کند؟

فناوری‌هایی که قرار بود به ما در یافتن اطلاعات کمک کنند، اکنون به زندان‌بان‌هایی تبدیل شده‌اند که تعیین می‌کنند چه چیزی را ببینیم و چه چیزی از ما پنهان بماند. این فرایند که در نگاه اول با نام «شخصی‌سازی محتوا» توجیه می‌شود، در واقع ما را در فیلترهای حبابی گرفتار می‌کند؛ فضایی که در آن تنها دیدگاه‌هایی به ما نمایش داده می‌شود که با باورها و علایق قبلی‌مان هماهنگ است.

چگونه الگوریتم‌ها ذهن ما را برنامه‌ریزی می‌کنند؟

الگوریتم‌های هوشمند، بر اساس داده‌هایی که از رفتار دیجیتالی ما جمع‌آوری می‌کنند، از لایک‌ها و کامنت‌ها گرفته تا مدت‌زمان مکث روی یک ویدیو، تصمیم می‌گیرند که چه محتوایی را بیشتر ببینیم. برای مثال، اگر چند مقاله انتقادی درباره یک سیاستمدار خاص بخوانید، موتورهای جستجو و شبکه‌های اجتماعی به‌تدریج شما را در معرض مقالات و نظرات مشابه بیشتری قرار می‌دهند، تا جایی که ممکن است تصور کنید اکثریت جامعه نیز همین دیدگاه را دارند.

در نگاه اول، این شخصی‌سازی جذاب به نظر می‌رسد، اما نتیجه نهایی آن، ایجاد حباب اطلاعاتی است. حبابی که در آن، محتوای مخالف یا متفاوت از دید شما پنهان می‌شود. طبق گزارش مرکز تحقیقات پیو، ۶۷ درصد آمریکایی‌ها اخبارشان را از شبکه‌های اجتماعی دریافت می‌کنند؛ پلتفرم‌هایی که الگوریتم‌هایشان بی‌وقفه در حال تقویت سوگیری‌های شناختی افراد هستند.

حقیقتی که هرگز به ما نشان داده نمی‌شود

اصطلاح «فیلتر حبابی» را الی پاریزر برای توصیف همین پدیده به کار برد. او معتقد است که الگوریتم‌ها، به‌جای مواجهه ما با دنیایی متنوع از اطلاعات، ما را در دایره‌ای بسته از نظرات همسو با خودمان گرفتار می‌کنند. به این معنا که هرچه بیشتر با یک دیدگاه خاص تعامل داشته باشیم، کمتر در معرض دیدگاه‌های دیگر قرار می‌گیریم.

یک مطالعه در دانشگاه استنفورد نشان داد که کاربرانی که به‌طور منظم از شبکه‌های اجتماعی به‌عنوان منبع اخبار استفاده می‌کنند، ۳۰ درصد کمتر با اطلاعات جدید و دیدگاه‌های مخالف روبه‌رو می‌شوند. این پدیده، نه‌تنها آگاهی عمومی را کاهش می‌دهد، بلکه منجر به قطبی‌شدن شدید جامعه می‌شود، چرا که افراد مختلف دیگر به روایت‌های گوناگون از حقیقت دسترسی ندارند.

نمونه بارز این موضوع را می‌توان در انتخابات ۲۰۱۶ آمریکا مشاهده کرد. تحقیقات دانشگاه هاروارد نشان داد که شرکت کمبریج آنالیتیکا، با استفاده از داده‌های فیسبوک، تبلیغات انتخاباتی را به‌صورت کاملاً شخصی‌سازی‌شده به ۱۲۶ میلیون کاربر آمریکایی ارائه داد. این تبلیغات، به‌جای ارائه دیدگاه‌های متنوع، هر فرد را در دنیای بسته خود نگه داشت و اختلافات سیاسی را تشدید کرد.

وقتی تفکر مستقل به خطر می‌افتد

تفکر انتقادی یعنی توانایی تحلیل بی‌طرفانه اطلاعات، اما الگوریتم‌ها این توانایی را به‌تدریج از ما می‌گیرند. وقتی مداوم در معرض محتوای تأییدکننده باورهای خود باشیم، کمتر به چالش کشیده می‌شویم و انگیزه کمتری برای بررسی دیدگاه‌های دیگر پیدا می‌کنیم.

تحقیقی که روزنامه گاردین در سال ۲۰۲۰ منتشر کرد، نشان داد کاربرانی که بیشتر در معرض محتواهای شخصی‌سازی‌شده قرار دارند، کمتر تمایل دارند با نظرات مخالف تعامل کنند. این یعنی دنیایی که در آن هر فرد، بی‌آنکه بداند، در یک واقعیت سفارشی‌شده زندگی می‌کند.

این اثرات تنها محدود به اخبار و سیاست نیست. در دنیای سرگرمی نیز، الگوریتم‌های نتفلیکس و اسپاتیفای مدام محتوایی را به ما پیشنهاد می‌کنند که مطابق با سلیقه قبلی ماست. در نتیجه، فیلم‌ها، کتاب‌ها و موسیقی‌هایی که فراتر از ذائقه فعلی ما هستند، به‌ندرت در معرض دیدمان قرار می‌گیرند. در بلندمدت، این روند به کاهش خلاقیت و تنوع فرهنگی منجر می‌شود.

آیا هنوز هم آزادانه فکر می‌کنیم؟

در دنیایی که اطلاعات با سرعتی بی‌سابقه منتشر می‌شوند، تصور می‌کنیم بیش از هر زمان دیگری به حقیقت دسترسی داریم. اما در واقع، الگوریتم‌ها مسیر فکری ما را هدایت می‌کنند، بدون آنکه متوجه باشیم. ما در حباب‌هایی زندگی می‌کنیم که اطلاعات را برایمان سفارشی‌سازی کرده و دنیایی را به تصویر می‌کشند که شاید با واقعیت فاصله داشته باشد.

اگر می‌خواهیم کنترل تفکر خود را دوباره به دست بگیریم، باید آگاهانه از این حباب‌ها خارج شویم. ما باید انتخاب کنیم که چه چیزی ببینیم، به چه منابعی اعتماد کنیم و چگونه ذهن خود را در برابر نفوذ الگوریتم‌ها مقاوم سازیم. تنها در این صورت است که می‌توانیم ادعا کنیم هنوز هم آزادانه فکر می‌کنیم.

برچسب‌ها

پیام شما به ما

شما در حال پاسخ به نظر «» هستید.
captcha
  • [placeholder]