فناوریهایی که قرار بود به ما در یافتن اطلاعات کمک کنند، اکنون به زندانبانهایی تبدیل شدهاند که تعیین میکنند چه چیزی را ببینیم و چه چیزی از ما پنهان بماند. این فرایند که در نگاه اول با نام «شخصیسازی محتوا» توجیه میشود، در واقع ما را در فیلترهای حبابی گرفتار میکند؛ فضایی که در آن تنها دیدگاههایی به ما نمایش داده میشود که با باورها و علایق قبلیمان هماهنگ است.
چگونه الگوریتمها ذهن ما را برنامهریزی میکنند؟
الگوریتمهای هوشمند، بر اساس دادههایی که از رفتار دیجیتالی ما جمعآوری میکنند، از لایکها و کامنتها گرفته تا مدتزمان مکث روی یک ویدیو، تصمیم میگیرند که چه محتوایی را بیشتر ببینیم. برای مثال، اگر چند مقاله انتقادی درباره یک سیاستمدار خاص بخوانید، موتورهای جستجو و شبکههای اجتماعی بهتدریج شما را در معرض مقالات و نظرات مشابه بیشتری قرار میدهند، تا جایی که ممکن است تصور کنید اکثریت جامعه نیز همین دیدگاه را دارند.
در نگاه اول، این شخصیسازی جذاب به نظر میرسد، اما نتیجه نهایی آن، ایجاد حباب اطلاعاتی است. حبابی که در آن، محتوای مخالف یا متفاوت از دید شما پنهان میشود. طبق گزارش مرکز تحقیقات پیو، ۶۷ درصد آمریکاییها اخبارشان را از شبکههای اجتماعی دریافت میکنند؛ پلتفرمهایی که الگوریتمهایشان بیوقفه در حال تقویت سوگیریهای شناختی افراد هستند.
حقیقتی که هرگز به ما نشان داده نمیشود
اصطلاح «فیلتر حبابی» را الی پاریزر برای توصیف همین پدیده به کار برد. او معتقد است که الگوریتمها، بهجای مواجهه ما با دنیایی متنوع از اطلاعات، ما را در دایرهای بسته از نظرات همسو با خودمان گرفتار میکنند. به این معنا که هرچه بیشتر با یک دیدگاه خاص تعامل داشته باشیم، کمتر در معرض دیدگاههای دیگر قرار میگیریم.
یک مطالعه در دانشگاه استنفورد نشان داد که کاربرانی که بهطور منظم از شبکههای اجتماعی بهعنوان منبع اخبار استفاده میکنند، ۳۰ درصد کمتر با اطلاعات جدید و دیدگاههای مخالف روبهرو میشوند. این پدیده، نهتنها آگاهی عمومی را کاهش میدهد، بلکه منجر به قطبیشدن شدید جامعه میشود، چرا که افراد مختلف دیگر به روایتهای گوناگون از حقیقت دسترسی ندارند.
نمونه بارز این موضوع را میتوان در انتخابات ۲۰۱۶ آمریکا مشاهده کرد. تحقیقات دانشگاه هاروارد نشان داد که شرکت کمبریج آنالیتیکا، با استفاده از دادههای فیسبوک، تبلیغات انتخاباتی را بهصورت کاملاً شخصیسازیشده به ۱۲۶ میلیون کاربر آمریکایی ارائه داد. این تبلیغات، بهجای ارائه دیدگاههای متنوع، هر فرد را در دنیای بسته خود نگه داشت و اختلافات سیاسی را تشدید کرد.
وقتی تفکر مستقل به خطر میافتد
تفکر انتقادی یعنی توانایی تحلیل بیطرفانه اطلاعات، اما الگوریتمها این توانایی را بهتدریج از ما میگیرند. وقتی مداوم در معرض محتوای تأییدکننده باورهای خود باشیم، کمتر به چالش کشیده میشویم و انگیزه کمتری برای بررسی دیدگاههای دیگر پیدا میکنیم.
تحقیقی که روزنامه گاردین در سال ۲۰۲۰ منتشر کرد، نشان داد کاربرانی که بیشتر در معرض محتواهای شخصیسازیشده قرار دارند، کمتر تمایل دارند با نظرات مخالف تعامل کنند. این یعنی دنیایی که در آن هر فرد، بیآنکه بداند، در یک واقعیت سفارشیشده زندگی میکند.
این اثرات تنها محدود به اخبار و سیاست نیست. در دنیای سرگرمی نیز، الگوریتمهای نتفلیکس و اسپاتیفای مدام محتوایی را به ما پیشنهاد میکنند که مطابق با سلیقه قبلی ماست. در نتیجه، فیلمها، کتابها و موسیقیهایی که فراتر از ذائقه فعلی ما هستند، بهندرت در معرض دیدمان قرار میگیرند. در بلندمدت، این روند به کاهش خلاقیت و تنوع فرهنگی منجر میشود.
آیا هنوز هم آزادانه فکر میکنیم؟
در دنیایی که اطلاعات با سرعتی بیسابقه منتشر میشوند، تصور میکنیم بیش از هر زمان دیگری به حقیقت دسترسی داریم. اما در واقع، الگوریتمها مسیر فکری ما را هدایت میکنند، بدون آنکه متوجه باشیم. ما در حبابهایی زندگی میکنیم که اطلاعات را برایمان سفارشیسازی کرده و دنیایی را به تصویر میکشند که شاید با واقعیت فاصله داشته باشد.
اگر میخواهیم کنترل تفکر خود را دوباره به دست بگیریم، باید آگاهانه از این حبابها خارج شویم. ما باید انتخاب کنیم که چه چیزی ببینیم، به چه منابعی اعتماد کنیم و چگونه ذهن خود را در برابر نفوذ الگوریتمها مقاوم سازیم. تنها در این صورت است که میتوانیم ادعا کنیم هنوز هم آزادانه فکر میکنیم.
پیام شما به ما