Come si riconoscono gli account falsi, magari automatici, che sostengono il terrorismo? Una call della Darpa è arrivata alle conclusioni. E il paper finale è disponibile: The DARPA Twitter Bot Challenge. Sapendo che circa l’8,5% degli account di Twitter sono robot. Alcuni di questi sono fatti per influenzare il dibattito. Il machine learning da solo non si è dimostrato sufficiente. Ma ha aiutato il lavoro umano che è servito per individuare alcuni di questi bot. Sentimetrix sembra essere stato il team migliore tra quelli che hanno risposto alla call. In pratica, si valutano gli account in parte sulla base delle loro caratteristiche apparenti (hanno una foto, scrivono in molte lingue, sono continuativi nella produzione e altro) e in parte incrociando i dati con altre cose che avvengono sulla piattaforma e che sono correlate ai post dei sospetti bot (uso di hashtag, convergenza di messaggi sull’argomento, e così via). Non si potrebbe fare a mano. Ma non si riesce fare solo automaticamente, per ora. Per gli interessati il pdf è libero da scaricare.
Che cosa se ne farà la Darpa? Ovviamente, il fatto che questi account sostengano cause compatibili con quelle dei terroristi può destare sospetti. Ma non può essere certo motivo per attaccarli via software, se sono umani, immagino. Se sono bot, invece, magari si possono equiparare ad armi e si possono sottoporre a qualche forma di anti-bot… Sbaglio?
Commenta