DUNQUE Alexa non ha solo orecchie artificiali ma anche umane. Il software di riconoscimento vocale per interpretare ed eseguire le richieste e i comandi impartiti dagli utenti non è – e non poteva essere – l’unico ascoltatore dall’altra parte del sistema. Certe volte fra il pubblico, per così dire, possono esserci anche analisti in carne e ossa distribuiti in una serie di centri fra Boston, la Romania, l’India e la Costa Rica. Lo spiega un’indagine di Bloomberg basata sulle rivelazioni di sette diverse fonti secondo cui certi campionamenti dei comandi audio inviati ai gadget di Amazon affinché l’assistente Alexa risponda ed esegua (“Alexa, che tempo farà oggi?”, “Alexa, accendi le luci in salotto” e così via) vengono passati ad esseri umani per essere trascritti, annotati e restituiti in pasto al sistema. Per migliorarne le prestazioni, che devono farsi sempre più precise.
 
D’altronde la questione era davanti agli occhi di tutti, e perfino inserita – pur senza parole esplicite – nei criptici termini di servizio o, fra le righe, nelle domande più frequenti sul sistema dove si legge che “più dati usiamo per allenare questi sistemi, meglio Alexa lavorerà e addestrarla con registrazioni vocali da diversi tipi di clienti aiuta Alexa a essere più efficiente con tutti”. Il punto è che al momento uno dei modi più efficaci per sostenere l’intelligenza artificiale di Seattle (e non solo) a migliorare è sottoporre ad ascoltatori umani le richieste più controverse, quelle meno chiare, per scioglierle e rendere ancora più smart la piattaforma del maggiordomo casalingo. Ma anche altri pezzi, pescati a caso.
 
La procedura, nota come “data annotation”, è in realtà piuttosto diffusa. E, alla fine, sembrerebbe dare ragione a chi, un po’ complottisticamente, vede nei gadget che popolano le nostre abitazioni – come gli Echo di Amazon – delle spie sempre accese e pronte a captare parole-chiave per sottoporci pubblicità sempre più mirate. D’altronde non c’è, al momento, troppa scelta: gli algoritmi di intelligenza artificiale migliorano nel tempo se i dati a cui hanno accesso sono dati buoni, puliti, ben categorizzati, coerenti. Un lavoro di base che alcune forme più elevate possono perfino arrivare a compiere in autonomia (qualcuno ricorda il braccio robotico “cosciente”?) ma certo non sistemi come Alexa, ai quali alcuni elementi vanno per così dire “sgrossati”. I punti di fraintendimento, infatti, possono essere moltissimi: dalle sfumature linguistiche ai comandi mal posti, dalle omonimie ai dialetti e così via. Non tutto, insomma, può essere sciolto e risolto dalle macchine.
 
Gli analisti ascolterebbero queste registrazioni a ritmi notevoli, fino a un migliaio di ore di registrazioni su turni di 9 ore, assegnando loro le definizioni corrette, anche in base a determinate indicazioni, e restituendo l’elemento “aggiustato” al sistema, in modo che questo possa nutrirsene e non commettere più errori simili in futuro. O commetterne di meno. Quel che si chiama “supervised learning”, un metodo spesso associato ad altri modi di addestramento delle intelligenze artificiali. Tutti i principali player digitali, da Apple a Google fino a Facebook, fanno uso di questo tipo di tecniche in modi simili e anche Siri e il versatile assistente di Google migliorano grazie a occhi e orecchie umani. Sebbene vada detto che la stessa Amazon sta tendando di sganciarsi sempre di più da questo genere di metodiche a favore di altre come l'”active learning” in cui l’AI faccia tutto o molto da sola, eliminando progressivamente il contributo di “correttori” umani. Lo aveva spiegato appena all’inizio del mese Ruhi Sarikaya, direttore scientifico di Alexa, in un articolo pubblicato su Scientific American ed emblematicamente intitolato “How Alexa Learn”: “I nostri sistemi – ha scritto – devono imparare a migliorare da soli”. Per ora non ce la fanno del tutto.
 
A quanto pare, però, nel caso di Amazon il fenomeno sarebbe massiccio: migliaia di impiegati, alcuni interni e altri esterni, si occuperebbero dietro le quinte di questa continua analisi vocale. Una procedura spiegata nei termini d’uso ma della quale, come sottolinea Bloomberg, forse gli utenti non si rendono del tutto conto quando usano questi assistenti. Senza contare ovviamente che restano preoccupazioni profonde per la privacy e c’è spazio per abusarne, visto che questo colossale corpus di registrazioni contiene senz’altro elementi sensibili, che rendono possibile l’identificazione del parlante. Non si sa inoltre se mai questi dati siano stati rubati, dove e per quanto tempo restino memorizzati. Stando ai file visionati dall’agenzia, le registrazioni arriverebbero all’analista contenenti un numero seriale del dispositivo, il nome della persona (senza il cognome) e un altro numero di account, evidentemente Amazon.
 
Secondo l’indagine non solo questi estratti sono stati in alcuni casi ignorati in caso di potenziali reati di cui erano involontari testimoni, ma anche sfruttati in modo comico dai dipendenti, che se ne sono scambiati dei frammenti coi colleghi per riderci sopra. Pare infatti che chi lavora queste analisi disponga di un servizio di chat interno da cui passare per chiarire reciprocamente i dubbi ma che a volte si presta alla circolazione delle clip audio tanto per riderne.
 
Non basta: se è vero che Alexa dovrebbe attivarsi solo dopo aver ricevuto il comando omonimo, è altrettanto vero che questo non sempre accade. Ogni impiegato è infatti incaricato di trascrivere fino a cento false attivazioni, cioè registrazioni di ciò che è avvenuto al momento dell’attivazione fasulla (evidentemente con l’obiettivo di perfezionare la parola magica ed evitare disservizi del genere).
 
Amazon ha risposto a Bloomberg di limitarsi ad annotare “solo un piccolo campione di registrazioni vocali su Alexa con l’obiettivo di migliorare l’esperienza dell’utente. Per esempio, le informazioni ci aiutano ad addestrare i nostri sistemi di riconoscimento del discorso e del linguaggio naturale, di modo che Alexa possa comprendere meglio le richieste, e assicurarci che il servizio funzioni bene per tutti”. Il colosso ha aggiunto di disporre di “stringenti linee guida tecniche e operative” su questa attività e di avere “tolleranza zero per gli abusi”. Per esempio gli analisti non hanno accesso all’identità della persona che ha a che fare con Alexa e ogni informazione sensibile è “trattata in modo estremamente confidenziale”. Non solo: i dati sarebbero anche protetti da “autenticazione a più fattori per restringerne l’accesso” sarebbero crittografati e controllati. Anche negli altri gruppi verrebbero presi provvedimenti simili: Google distorcerebbe l’audio, Apple lo anonimizzerebbe per assegnarlo casualmente.
 
“Non si pensa necessariamente a un altro essere umano all’ascolto di ciò che si dice al proprio speaker intelligente nell’intimità di casa propria – ha spiegato Florian Schaub, docente all’università del Michigan specializzato sul tema – penso che siamo stati condizionati all’assunto che queste macchine facciano solo del magico machine learning. Ma i fatti dicono che ci sono ancora processi manuali da svolgere”.
 

L’approfondimento quotidiano lo trovi su Rep: editoriali, analisi, interviste e reportage.
La selezione dei migliori articoli di Repubblica da leggere e ascoltare.

Rep Saperne di più è una tua scelta

Sostieni il giornalismo!
Abbonati a Repubblica


SITO UFFICIALE: http://www.repubblica.it/rss/tecnologia/rss2.0.xml