Facebook pracuje na obří simulaci jak sledovat „protispolečenské“ aktivity. Další kroky k špehování a supertotalitě

single-image

Facebook pracuje na obří simulaci, kde budou miliony umělých inteligencí porušovat pravidla této sociální sítě. Mělo by to pomoci předvídat hrozby a také nastavit lepší řád pro kontrolu. (Foto: Needpix)

Facebook poskytuje zdarma informace a diskusní prostor více než 2,6 miliardy lidí. V současné době se intenzivně snaží, aby si udržel svou pověst, kterou narušují šíření nepravdivých zpráv, toxické chování jeho uživatelů a další jevy, které odpuzují uživatele, investory i inzerenty.

Právě proto nyní Facebook testuje, jak sledovat protispolečenské aktivity v prostředí WES neboli Web-Enabled Simulation. Jedná se o obří, velmi realistickou, virtuální repliku Facebooku, která využívá metod strojového učení, umělé inteligence, teorie her a takzvaných multiagentních systémů.

Počítačoví inženýři, kteří za tímto systémem stojí, doufají, že se jim podaří lépe pochopit a tím i potlačit explozivní růst všeho negativního, co je s Facebookem spojené – tedy politické dezinformace, šílené konspirační teorie nebo nenávistivé vyjadřování.

Umělé inteligence proti sobě

Model WES je k tomu vybavený umělými inteligencemi, které mezi sebou interagují, debatují a posílají si vzkazy a zprávy; dokonce se navzájem žádají o přátelství a vytvářejí i další „lidské“ interakce, ale vždy jen s dalšími boty.

O existenci a možnostech tohoto systému informoval jeho šéf Mark Harman na svém blogu na konci července. Vysvětlil, že „díky WES můžeme využít složité scénáře v simulovaném prostředí.“ Projekt je podle něj zatím ve fázi výzkumu, ale jeho cílem je v budoucnu vylepšovat služby a předvídat možné problémy, než opravdu vzniknou a ovlivní reálné lidské uživatele, kteří Facebook využívají.

V tomto systému spolu mohou najednou komunikovat miliony botů. Tyto autonomní programy se budou pokoušet běžnou rutinu ideálního klidného prostředí Facebooku narušovat činnostmi, které jsou proti jeho pravidlům: například tam nakupovat zbraně nebo drogy. Výzkumníci pak budou sledovat, jak to umělé inteligence dělají, jaké to vyvolává odezvy a zda jsou tyto triky použitelné i pro lidi.

Dopravní omezení na Facebooku

Na základě těchto scénářů pak experti budou připravovat protiopatření, která by takové činnosti mohla zabránit. Právě tento nástroj by měl firmě v budoucnu pomáhat nastavovat pravidla, která by sociální síť učinila lepším a méně toxickým prostředím. Podle Harmona by to mělo být podobné jako simulace, které se využívají pro dopravu.

Podobně jako se podle nich instalují na silnice zpomalovače nebo semafory, mohl by Facebook například měnit frekvenci přidávání příspěvků, nebo dokonce automaticky k některým tématům přidávat značky označující pravdivost příspěvků.

Zdroj: 1

loading...