Přečteno v době oběda:
Proč se algoritmy rozhodly dát větší prostor hněvu než soucitu? Ani ti nejtvrdší kritici Facebooku si nemyslí, že by jeho manažeři chtěli podněcovat k masovým vraždám. Vedoucí pracovníci v Kalifornii nechovali vůči Rohingům žádnou zášť – po pravdě ani nevěděli, že existují. Skutečnost je složitější a potenciálně znepokojivější. V letech 2016–2017 se obchodní model Facebooku opíral o maximalizaci zapojení uživatelů – tedy aby trávili na platformě více času, aktivně reagovali na posty a sdíleli je se svými přáteli. Společnost tak shromáždila víc dat, prodala víc reklamy a získala větší podíl na trhu s informacemi. Vyšší angažovanost uživatelů navíc vypadala dobře v očích investorů, což vedlo k růstu cen akcií společnosti. Čím víc času lidé na platformě trávili, tím byl Facebook bohatší. V zájmu tohoto obchodního modelu uložili lidští manažeři algoritmům jediný a prvořadý cíl: zvýšit zapojení uživatelů. Algoritmy pak testováním na milionech uživatelů zjistily, že negativní emoce generují zapojení. Lidi spíš zaujme konspirační teorie plná nenávisti než kázání o soucitu. V honbě za zapojením uživatelů tak algoritmy učinily zhoubné rozhodnutí šířit nenávist.
Yuval Noah Harari / Nexus