Intelligenza artificiale: in pace e in guerra

Che rapporto c’è tra etica e tecnologia? Come dovrebbero essere individuati (possono esserlo?) gli ambiti in cui è consentito sviluppare nuove tecnologie a dispetto di quelli in cui è eticamente preferibile non contribuire? Queste domande, solo apparentemente teoriche, hanno animato le ultime settimane a seguito della notizia che Google ha lavorato, dal 2017 ad oggi, a stretto contatto con il pentagono nello sviluppo di software per il riconoscimento di oggetti tramite intelligenza artificiale.

Cos’è il progetto Maven

Il progetto Maven, sigla che sta per “gruppo inter-operativo per la guerra algoritmica” è stato inaugurato dal Pentagono nell’aprile del 2017 con lo scopo, secondo dichiarazioni interne, di sviluppare e integrare “algoritmi per l’analisi di riprese computerizzate necessarie per aiutare analisti civili e militari ingolfati dal volume dal flusso di dati di video registrati in tempo reale e collezionati ogni giorno dal Dipartimento della Difesa in supporto alle operazioni anti-insurrezionali e antiterroristiche”. Lo scopo era di integrare i primi algoritmi con i sistemi di combattimento areo già alla fine del 2017.

All’interno del progetto Maven, la collaborazione con Google sarebbe limitata alla capacità del colosso dell’IA di formare il personale del pentagono e di coadiuvare l’uso di TensorFlow, il framework per il machine learning erede di DeepMind con il principale — e apparentemente neutro — scopo di individuare correttamente gli oggetti a terra. La stessa Diane Green, CEO di Google Cloud, ha difeso nei giorni scorsi l’attività di Google per l’assenza di “impatto letale” nell’iniziativa. La Green scrive in un post su Maven che

This contract involved drone video footage and low-res object identification using AI, saving lives was the overarching intent

Diane Green – Google Cloud CEO

Questa posizione sembra essere corroborata anche da Greg Allen, un collaboratore aggiunto del Centro per una Nuova Sicurezza Americana, che ha partecipato alla stesura di un report sull’uso militare dell’intelligenza artificiale e secondo cui il primo scopo del Pentagono sarebbe davvero stato quello di sviluppare la tecnologia utile per il riconoscimento degli oggetti a terra.

In realtà le cose sembrano più torbide se si da credito ad una dichiarazione pubblicata da Gizmodo e proveniente da una mail interna in cui, un dipendente Google al lavoro sul progetto Maven, avrebbe detto che l’azienda vorrebbe creare un sistema di controllo sul modello Google Earth con una forte capacità di analisi real-time delle immagini raccolte.

La posizione di Google ieri

Guardando indietro alla recente storia di Google saltano agli occhi almeno tre indizi che aiutano a comprendere meglio l’attuale situazione anche se sembrano in contrasto tra loro.

Nel 2016 Google inizia la dismissione della controllata Boston Dynamics e sposta il resto del proprio gruppo di ricerca impegnato sulla robotica sotto l’ombrello di X, la controllata di Google che si occupa dei progetti speciali, e alla cui guida c’è Astro Teller. Secondo più parti, oltre a motivazioni economiche — ci sarebbero voluti altri dieci anni di investimenti prima di riuscire a monetizzare davvero — la scelta è stata fatta anche per allontanare Google e l’allora Google X, da critiche e danni di immagine dovuti alla presenza di finanziamenti da parte del DoD e alle possibili applicazioni militari dei robot della BD.

via GIPHY

Solo l’anno successivo, Eric Schmidt, ex CEO Google prima della creazione di Alphabet, e ora all’interno del Defense Business Board che ha proprio lo scopo di valutare sviluppi commerciali e tecnologici per il ministero della difesa americano, ha presentato posizioni diverse. Nel corso di una discussione in occasione del “New American Security Artificial Intelligence and Global Security Summit” ha infatti mostrato disappunto per il fatto che

There’s a general concern in the tech community of somehow the military-industrial complex using their stuff to kill people incorrectly

Eric Schmidt – former Google CEO

La terza posizione possiamo recuperarla dalla lettera agli investitori del 2017, firmata Sergey Brin e in larga parte centrata sull’uso dell’IA qui

I due passaggi principali sono legati alla fondazione (delega?) delle questioni più propriamente etiche a strutture come Partnership on AI o a alle dichiarazioni di intenti di gruppi come Deepmind e a quest’assunto:

Technology companies have historically been wide- eyed and idealistic about the opportunities that their innovations create. And for the overwhelming part, the arc of history shows that these advances, including the Internet and mobile devices, have created opportunities and dramatically improved the quality of life for billions of people. However, there are very legitimate and pertinent issues being raised, across the globe, about the implications and impacts of these advances. This is an important discussion to have.

che in poche parole demanda le scelte su quali saranno gli usi appropriati per le tecnologie di intelligenza artificiale al futuro.

Le proteste

Anche se il percorso di Google sembra essere sempre meno incline a falsi moralismi, l’azienda deve comunque tener conto dell’immagine, della credibilità verso il pubblico e della fiducia dei propri dipendenti, oggi. Da sempre questi ultimi sono stati spinti a discutere “in chiaro” dubbi o problemi legati alle politiche aziendali e già in passato i 70.000 collaboratori si sono fatti sentire: di pochi mesi fa il dibattito sulla diversità.

In relazione a Maven sono state molte le iniziative dentro e fuori l’azienda. Alcuni dipendenti hanno firmato una lettera di protesta e sono arrivati al licenziamento per allontanarsi dalle posizioni dell’azienda. Studenti e neolaureati hanno espresso il loro disappunto mettendo in atto una sorta di sciopero delle domande di impiego e boicottando i colloqui.

Anche dalla comunità scientifica si è alzata una protesta, sotto forma di lettera aperta ai dirigenti Google, da parte di studenti, accademici e ricercatori, in sostegno dei Googlers dimissionari per sostenere l’interruzione di ogni collaborazione con il DoD.

La posizione di Google oggi

In generale sembra che l’ondata di malcontento abbia avuto successo e in poco tempo sono state almeno due le reazioni di Google alle proteste.

Da un lato l’azienda ha confermato che il contratto con il DOD americano, in scadenza nel 2019, non verrà confermato. Dall’altro sono state pubblicate delle linee di condotta che non differiscono di molto da quelle presentate da Brin l’anno precedente, a firma di Sundar Pichai, il nuovo CEO di Google dopo la nascita di Alphabet.

Pichai afferma che Google si focalizzerà sui benefici sociali dell’IA e eviterà progetti che possono causare danno aggiungendo che l’azienda accetterà collaborazioni governative che non violeranno questi principi.

Uno dei passaggi principali della dichiarazione è che

We want to be clear that while we are not developing AI for use in weapons, we will continue our work with governments and the military in many other areas. These include cybersecurity, training, military recruitment, veterans’ healthcare, and search and rescue

Viene anche ribadito che questa lettera di intenti è in linea e in continuità con la lettera dei fondatori del 2004 che però è già quasi del tutto priva di formule roboanti e definitive come il famoso motto “don’t be evil” che nel frattempo è stato rimosso dalla definizione dell’azienda.

Il bene e il male nell’era dell’intelligenza artificiale

Le proteste sembrano quindi aver sortito il loro effetto e, come dopo un breve sonno della ragione, il gigante di Mountain View è stato ricondotto sulla buona via dall’opinione pubblica. Ma non è così.

Le dichiarazioni di Pichai sono chiare: nessun problema a collaborare con il governo e l’esercito se la finalità prima non è la costruzione di armi. In realtà quindi lo stesso progetto Maven potrebbe essere avviato anche ora visto che questo stesso entra all’interno del perimetro etico appena disegnato. Unica differenza è che questa volta il pubblico non era ancora pronto a vedere in atto una collaborazione di questo tipo e abbiamo quindi assistito ad una semi ritirata e ad una dichiarazione che in realtà spiana i lavori dei prossimi anni.

Utile osservare anche la discrepanza tra una frase della lettera contro l’uso dell’IA in guerra estratta dalla lettera aperta contro Google

Commit not to develop military technologies, nor to allow the personal data it has collected to be used for military operation

e una della dichiarazione di Pichai

Be socially beneficial

Tra le due la prima è assoluta e chiara: nessuna collaborazione con gli eserciti. La seconda apre mille spiragli: benefici sociali ci sono anche nel fermare un attentato, indagare su atti criminali, usare dati per controlli di sicurezza etc…Senza una definizione chiara tutte le possibili collaborazioni e le commistioni tra i lavori delle grandi tech e gli eserciti sono ancora e di nuovo lecite e Google non è di certo sola in questo percorso.

Mentre si avviano campagne contro la collaborazione tout court dell’industria tech con il mercato della guerra anche Amazon è entrata nel circuito fornendo tecnologie di riconoscimento facciale alle forze di polizia.

La pace è guerra, la guerra è pace

Che il mercato della sicurezza e lo sviluppo delle collaborazioni con le grandi tech company che collezionano i nostri dati (Google, Amazon, Facebook in testa) non sia in declino ma solo all’inizio lo dicono, indirettamente, in molti.

Paul Scharre, un ufficiale del Pentagono e autore del volume “Army of None”, sull’uso dell’IA usata per costruire armi senza controllo umano, ha detto che la collaborazione con Google era inevitabile data la storia dell’azienda e l’enorme richiesta di IA nelle forze armate.

Lo stesso Scharre etichetta le ritrosie delle grandi tech come “infantili” affermando che

Now A.I. is suddenly and quite quickly moving out of the research lab and into real life

Allen, citato precedentemente, ha affermato che solo la collaborazione con Google ha dato vita a progetti di questo tipo e che

Before Maven, nobody in the department had a clue how to properly buy, field, and implement AI

Questa situazione non sembra aver preoccupato mai neanche Google se Schimidt stesso, nel 2013, quando era ancora CEO di Google, dichiarò che

la sorveglianza statale è solo frutto della natura stessa della nostra società

in un’intervista riportata dal Guardian

Stando alle stesse mail di dipendenti Google del settembre 2017 raccolte da Gizmodo, il progetto Maven, pur essendo ancora poco redditizio, avrebbe dovuto aprire la strada ad altre commesse. Una delle possibilità era l’appalto per la costruzione di un’infrastruttura cloud chiamata JEDI (Joint Enterprise Defense Infrastructure). Progetti che non rimarranno molto a lungo nel cassetto e che dalle dichiarazioni dei dirigenti di Google, nessuno avrà motivo di rifiutare.

Non a caso è in tempo di “pace” che si costruisce la “guerra”

Zeen is a next generation WordPress theme. It’s powerful, beautifully designed and comes with everything you need to engage your visitors and increase conversions.

Altre storie
Smartworking. In Italia ancora un benefit aziendale