Informátorka společnosti Facebook Frances Haugenová vypověděla, že algoritmy společnosti jsou nebezpečné
Bývalá produktová manažerka Facebooku Frances Haugenová 5. října 2021 před americkým Senátem vypověděla, že platformy sociálních médií společnosti “poškozují děti, podněcují rozdělení a oslabují naši demokracii”.
Sociální média jako Facebook, Instagram, Twitter, YouTube a TikTok se při řazení a doporučování obsahu do značné míry spoléhají na algoritmy umělé inteligence. Tyto algoritmy berou jako vstupní údaje to, co se vám líbí, co komentujete a sdílíte - jinými slovy obsah, do kterého se zapojujete. Cílem algoritmů je maximalizovat zapojení tím, že zjistí, co se lidem líbí, a zařadí to na přední místa v jejich kanálech.
Na první pohled to vypadá rozumně. Pokud se lidem líbí důvěryhodné zprávy, názory odborníků a zábavná videa, měly by tyto algoritmy takový kvalitní obsah identifikovat. Moudrost davů zde však vychází z klíčového předpokladu: že doporučování toho, co je populární, pomůže kvalitnímu obsahu “probublat” nahoru.
Tento předpoklad jsme testovali studiem algoritmu, který řadí položky pomocí kombinace kvality a popularity. Zjistili jsme, že obecně je pravděpodobnější, že zkreslení popularity sníží celkovou kvalitu obsahu. Důvodem je, že zapojení není spolehlivým ukazatelem kvality, pokud se s položkou setkalo málo lidí. V těchto případech angažovanost vytváří zašuměný signál a algoritmus tento počáteční šum pravděpodobně zesílí. Jakmile je popularita nekvalitní položky dostatečně velká, bude se stále zesilovat.
Algoritmy nejsou jedinou věcí, kterou zkreslení zapojení ovlivňuje - může ovlivňovat i lidi. Důkazy ukazují, že informace se přenášejí prostřednictvím “komplexní nákazy”, což znamená, že čím vícekrát jsou lidé vystaveni nějaké myšlence online, tím větší je pravděpodobnost, že ji přijmou a budou znovu sdílet. Když sociální média lidem sdělí, že se nějaká věc stává virální, jejich kognitivní předsudky se projeví v neodolatelném nutkání věnovat jí pozornost a sdílet ji.
Moudrost davu selhává, protože je založena na falešném předpokladu, že dav je tvořen různými, nezávislými zdroji. Důvodů, proč tomu tak není, může být několik.
Zaprvé, vzhledem k tomu, že lidé mají tendenci sdružovat se s podobnými lidmi, jejich online okolí není příliš rozmanité. Snadnost, s jakou si uživatelé sociálních médií mohou zrušit přátelství s těmi, s nimiž nesouhlasí, tlačí lidi do homogenních komunit, často označovaných jako komory ozvěny.
Za druhé, protože přátelé mnoha lidí jsou přáteli jeden druhého, vzájemně se ovlivňují. Známý experiment prokázal, že znalost toho, jakou hudbu mají rádi vaši přátelé, ovlivňuje vaše vlastní deklarované preference. Vaše společenská touha přizpůsobit se zkresluje váš nezávislý úsudek.
Zatřetí, signály popularity se dají zahrát. Vyhledávače v průběhu let vyvinuly sofistikované techniky proti takzvaným “odkazovým farmám” a dalším schématům manipulace s vyhledávacími algoritmy. Na druhou stranu platformy sociálních médií se teprve začínají učit o svých vlastních zranitelných místech.
Lidé, jejichž cílem je manipulovat s trhem informací, vytvářejí falešné účty, jako jsou trollové a sociální boti, a organizují falešné sítě. Zaplavili sítě, aby vytvořili zdání, že konspirační teorie nebo politický kandidát jsou populární, a oklamali tak algoritmy platforem i kognitivní předsudky lidí najednou. Dokonce změnili strukturu sociálních sítí, aby vytvořili iluze o většinových názorech.
Snížení angažovanosti
Co dělat? Technologické platformy jsou v současné době v defenzivě. Během voleb jsou stále agresivnější při likvidaci falešných účtů a škodlivých dezinformací. Tyto snahy však mohou připomínat hru na honěnou.
Jiný, preventivní přístup by spočíval v přidání tření. Jinými slovy, zpomalit proces šíření informací. Vysoce frekventované chování, jako je automatické lajkování a sdílení, by mohly omezit testy CAPTCHA, které vyžadují reakci člověka, nebo poplatky. Nejenže by se tím snížily možnosti manipulace, ale díky menšímu množství informací by lidé mohli věnovat větší pozornost tomu, co vidí. Zůstal by tak menší prostor pro to, aby rozhodování lidí ovlivňovala zaujatost.
Pomohlo by také, kdyby společnosti provozující sociální sítě upravily své algoritmy tak, aby se při určování obsahu, který vám budou servírovat, méně spoléhaly na signály zapojení a více na signály kvality. Možná, že odhalení whistleblowerů poskytne potřebný impuls.
Překlad: https://www.deepl.com/translator
Facebook whistleblower Frances Haugen testified that the company’s algorithms are dangerous – here’s how they can manipulate you
Former Facebook product manager Frances Haugen testified before the U.S. Senate on Oct. 5, 2021, that the company’s social media platforms “harm children, stoke division and weaken our democracy.”
Social media like Facebook, Instagram, Twitter, YouTube and TikTok rely heavily on AI algorithms to rank and recommend content. These algorithms take as input what you like, comment on and share – in other words, content you engage with. The goal of the algorithms is to maximize engagement by finding out what people like and ranking it at the top of their feeds.
On the surface this seems reasonable. If people like credible news, expert opinions and fun videos, these algorithms should identify such high-quality content. But the wisdom of the crowds makes a key assumption here: that recommending what is popular will help high-quality content “bubble up.”
We tested this assumption by studying an algorithm that ranks items using a mix of quality and popularity. We found that in general, popularity bias is more likely to lower the overall quality of content. The reason is that engagement is not a reliable indicator of quality when few people have been exposed to an item. In these cases, engagement generates a noisy signal, and the algorithm is likely to amplify this initial noise. Once the popularity of a low-quality item is large enough, it will keep getting amplified.
Algorithms aren’t the only thing affected by engagement bias – it can affect people too. Evidence shows that information is transmitted via “complex contagion,” meaning the more times people are exposed to an idea online, the more likely they are to adopt and reshare it. When social media tells people an item is going viral, their cognitive biases kick in and translate into the irresistible urge to pay attention to it and share it.
The wisdom of the crowds fails because it is built on the false assumption that the crowd is made up of diverse, independent sources. There may be several reasons this is not the case.
First, because of people’s tendency to associate with similar people, their online neighborhoods are not very diverse. The ease with which social media users can unfriend those with whom they disagree pushes people into homogeneous communities, often referred to as echo chambers.
Second, because many people’s friends are friends of one another, they influence one another. A famous experiment demonstrated that knowing what music your friends like affects your own stated preferences. Your social desire to conform distorts your independent judgment.
Third, popularity signals can be gamed. Over the years, search engines have developed sophisticated techniques to counter so-called “link farms” and other schemes to manipulate search algorithms. Social media platforms, on the other hand, are just beginning to learn about their own vulnerabilities.
People aiming to manipulate the information market have created fake accounts, like trolls and social bots, and organized fake networks. They have flooded the network to create the appearance that a conspiracy theory or a political candidate is popular, tricking both platform algorithms and people’s cognitive biases at once. They have even altered the structure of social networks to create illusions about majority opinions.
Dialing down engagement What to do? Technology platforms are currently on the defensive. They are becoming more aggressive during elections in taking down fake accounts and harmful misinformation. But these efforts can be akin to a game of whack-a-mole.
A different, preventive approach would be to add friction. In other words, to slow down the process of spreading information. High-frequency behaviors such as automated liking and sharing could be inhibited by CAPTCHA tests, which require a human to respond, or fees. Not only would this decrease opportunities for manipulation, but with less information people would be able to pay more attention to what they see. It would leave less room for engagement bias to affect people’s decisions.
It would also help if social media companies adjusted their algorithms to rely less on engagement signals and more on quality signals to determine the content they serve you. Perhaps the whistleblower revelations will provide the necessary impetus.