Na Facebooku neexistuje soukromí a vaše veškerá data prodává dál. Nic nového. Dnes jsem se ale dozvěděl, jak se používá strojové učení k propagaci fake news, provokativních názorů nebo depresivních nálad.
How Facebook got addicted to spreading misinformation – Technologyreview.com (v angličtině)
Facebook je jako virus. Chce se nekontrolovaně množit, dokud nebude napojený na každého člověka na Zemi. Mark Zuckerberg a vedení Facebooku je motivované jediným. Chtějí aby jejich sociální síť neustále rostla. A to za každou cenu.
Moje další články o Facebooku:
Apple chce chránit vaše soukromí a Facebooku se to nelíbí
Jak zaheslovat Facebook Messenger pomocí FaceID nebo TouchID
Výše uvedený článek mě velice zaujal. Popisuje totiž, jakým způsobem se snaží „celosvětové nadvlády“ docílit. Autorka Karen Hao po mnoha rozhovorech popisuje, jakým způsobem Facebook pracuje s algoritmy, umělou inteligencí a strojovým učením.
Mnohem více se dozvíte přečtením samotného, kvalitního článku. Ale kdo nezvládá složitější angličtinu nebo se mu nechce rozsáhlý text číst, tak nabízím základní výcuc:
- Skandál Cambrige Analytica v roce 2018 odstartoval největší průšvih Facebooku. Agentura pracující pro kampaň Donalda Trumpa vysávala data o uživatelích a využívala je k tomu, aby ovlivnila jejich hlasování ve volbách. Tento skandál způsobil nejen velkou ránu pro značku Facebooku, ale také odchod mnoha zaměstnanců, uživatelů a snížení tržního ohodnocení o více než 100 miliard dolarů.
- V návaznosti na to byla zahájena iniciativa prověřující, zda používané algoritmy můžou mít sociální vlivy. K tomuto účelu byl založen tým „SAIL – Society and AI Lab“, jehož vedení dostal na starost Joaquin Quiñonero Candela. (SAIL byl o rok později integrován do týmu „Responsible AI“ s širším záběrem)
- Quiñonero byl ideálním kandidátem, protože celé předchozí roky byl tím, který stál za obrovským rozmachem modelů strojového učení a umělé inteligence. Díky práci jeho týmu došlo ve Facebooku k rozvoji technologií, které umožňovaly rychle a účinně analyzovat každého uživatele a jeho chování. Díky tomu dokáže Facebook poznat, který obsah naservírovat uživateli, aby s ním chtěl interagovat.
Facebook vám cíleně ukazuje takové příspěvky, u nichž je nejvyšší pravděpodobnost, že s nimi budete chtít interagovat – komentovat, lajkovat, sdílet.
Problém je v tom, příspěvky způsobující největší interakci jsou zároveň ty, které jsou nejblíže k porušení pravidel, extrémním názorům, fake news apod.
KONTROVERZE A KONFLIKT mají vždy největší míru interakce od uživatelů.
- Od zaměstnanců několikrát vzešly snahy o potlačení dezinformací a škodlivého obsahu. Třeba takového, který podněcuje extrémistické skupiny a násilí – jako byl případ zešikování lidí pro útok na Kapitol v tomto roce. Hodně lidí se dostává do těchto stránek a skupin díky doporučení algoritmů Facebooku. Bohužel tyto iniciativy byly často potlačeny vedením, neboť „zkrocení“ algoritmů poškozuje míru zapojení uživatelů a tím pádem snižuje růst a obraty firmy. A růst firmy je samozřejmě základní ukazatel pro finanční ohodnocení zaměstnanců.
„Facebook leadership has also repeatedly weakened or halted many initiatives meant to clean up misinformation on the platform because doing so would undermine that growth.“
“When you’re in the business of maximizing engagement, you’re not interested in truth. You’re not interested in harm, divisiveness, conspiracy. In fact, those are your friends.”
Hany Farid, a professor at the University of California.
- Facebook vyvíjí nové modely strojového učení, které se učí servírovat obsah uživatelům tak, aby s ním maximálně interagovali. Bohužel nejvíc účinné jsou ty modely, které favorizují kontroverzní obsah. Nejtvrdším příkladem je případ Barmy, kde virální fake news a projevy nenávisti na Facebooku vyústily v náboženský konflikt a genocidu. To vše kvůli algoritmům podporující příspěvky, na které uživatelé nejvíce reagovali. Algoritmy tento obsah nadále šíří a dochází k efektu nabalující sněhové koule.
- Snaha o maximalizaci zaujetí obsahu vede tak daleko, že se zaměstnanci vedení ptali, jestli mají optimalizovat příspěvky pro lidi interagující s melancholickým obsahem, což může indikovat deprese. Lidé v depresích totiž hledají další depresivní obsah a to může dokonce vést až k podpoře sebevražd. Zaměstnanci Facebooku se tehdy ptali sami sebe, jestli můžou využít zranitelného člověka k růstu své sociální sítě.
- Tým Responsible AI byl výrazněji podporován až v posledních letech – od doby, kdy Trump obvinil Facebook z preference liberálů. Tvrdil, že jejich algoritmy jsou zaujaté proti konzervativcům. Zuckerberg pověřil Quiñonera kontrolou algoritmů kvůli možnému politickému zaujetí. Problém je v tom, že toto odklonění specializovaného týmu znamená zanedbání ostatních problémů všech učících modelů. Propagace škodlivého a toxického obsahu tak byla odložena na vedlejší kolej a nikdo to dál moc neřeší.
Nedokážu v pár bodech shrnout vyznění celého textu. Každopádně to vypadá tak, že Facebook si problém svého vlivu a moderace obsahu velice dobře uvědomuje. Ale v zájmu svého vlastního ohodnocení a růstu společnosti tyto problémy bude přehlížet a jediná možnost je zásah zvenčí – tedy regulace pomocí nějakého vyššího orgánu.
Pokud budete mít nějaký čas, rozhodně si původní článek přečtěte. Stojí za to.
Sledujte Granátový jablko na Facebooku, Twitteru a Instagramu pro další návody nebo novinky, které se na blogu neobjeví.