Non è una novità che la ricerca universitaria abbia un ruolo fondamentale per lo sviluppo di tecnologie di guerra, e gli ultimi avvenimenti in Palestina hanno reso il legame tra l’accademia e il militare più che mai evidente. L’Università di Venezia Ca’ Foscari è uno dei tanti atenei che fa della connivenza tra mondo del sapere e mondo militare un dato di fatto. Ciò avviene, per esempio, attraverso la fondazione Med.Or, di proprietà di Leonardo spa – la più grande produttrice ed esportatrice di armi italiana –, il cui comitato scientifico annovera tra i propri membri diciotto rettori e rettrici, compresa Tiziana Lippiello, rappresentante ufficiale di Ca’ Foscari.
Ca’ Foscari propone anche master organizzati non solo in collaborazione con chi la guerra la impone all’estero, ma anche con chi la controlla e dirige a casa nostra. Per quanto l’università veneziana non sia centrale nella ricerca per l’industria bellica, a differenza di altri atenei – pensiamo a Trento, che collabora con l’esercito israeliano tramite la fondazione Bruno Kessler –, ha un ruolo di primo piano in altri campi: la creazione di algoritmi di giustizia predittiva, lo sviluppo di startup tecnologiche, il controllo della città di Venezia e di chi la vive o attraversa (Smart Control Room).
Ciò che segue non è una “critica politica” al ruolo dell’università in generale, o a quello di Ca’ Foscari in particolare. Non vogliamo nemmeno far finta che Ca’ Foscari stia coprendo e nascondendo le sue malefatte con un’immagine e una postura green, pacifista e sostenibile: Ca’ Foscari non nasconde nulla. Da qui il disincanto per qualsiasi proposta allucinata di creare un’università dal basso, luogo neutrale dove produrre un sapere liberato dalle “interferenze” della società capitalista, quando il mondo accademico si propone proprio come tassello fondamentale di mantenimento e riproduzione della razionalità capitalista.
Questo nostro lavoro di ricerca speriamo possa servire come spunto per altre realtà, universitarie e non, ad approfondire i legami tra ricerca e guerra, cosicché nessuno potrà dire di non sapere.
MARINA E POLIZIA LOCALE
“Studi strategici e sicurezza internazionale”, è un master promosso dal 2017 da Ca’ Foscari Challenge school (ente che fa da collegamento tra università e aziende) in collaborazione con la Marina Militare. La presenza di questo corso tra la lista dei master proposti sulla pagina web dell’università non fa che facilitare l’avvicinamento di studenti “comuni” all’ambito militare.
Studenti comuni e nemmeno laureati in materie scientifiche (che, come è noto, sono spesso coinvolti in progetti di ricerca bellica); il master infatti propone la formazione degli iscritti seguendo “una prospettiva multidisciplinare” sul processo di globalizzazione e il suo sistema, affinché ne possano trarre le “principali implicazioni per la sua governance politica ed economica” attraverso tredici settimane di lezioni, distribuite tra l’ambito prettamente militare (strategia navale e globale), manageriale e di comunicazione.
Il fatto che questo corso sia aperto non solo agli ufficiali della Marina, ma anche e soprattutto ai laureati in pressoché tutte le materie sottolinea la retorica secondo cui la gestione della guerra è un qualcosa che appartiene anche ai civili, semplicemente per militarizzare le menti e i cuori delle persone, e rendere la guerra un affare da risolvere come qualsiasi altro, per nascondere le sue reali implicazioni, rendendola così un “fattore naturale”.
“Management della Sicurezza”, in collaborazione con la polizia locale, è invece un intero corso di master volto a formare la prossima classe dirigente della polizia locale, che sfrutta l’appoggio dell’università, sia economico che “fisico”; ciò che viene proposto agli iscritti sono corsi di procedura e diritto penale, amministrativo ed europeo, diritto di polizia in ambito commerciale, nautico ed edilizio, con una particolare attenzione all’argomento della “sicurezza urbana”; con quest’ultima si intende la formazione degli studenti ai nuovi meccanismi di videosorveglianza (come la Smart Control Room) e piattaforme di polizia (e giustizia) predittiva. La polizia locale gestisce a Venezia la Smart Control Room, ovvero una stanza che aggrega tutti i filmati delle telecamere diffuse nel centro storico, i dati raccolti dalle celle telefoniche a cui ogni telefono si collega e dei contapersone disposti lungo le calli della città. È quello strumento che, in relazione all’introduzione del ticket d’accesso, rende Venezia una “smart city”, ovvero una città più controllabile, più facile da settorializzare, organizzata sotto il nuovo paradigma cibernetico. Per approfondire la questione si può consultare un opuscolo che scrivemmo qualche mese fa. Al termine dei due anni di master il comando di polizia locale acquisirà quindi nuovi ufficiali pronti a ricoprire ruoli di comando di nuclei o servizi (coloro che gestiscono operazioni e programmi).
GIUSTIZIA PREDITTIVA
Ma oltre le varie collaborazioni che Ca’ Foscari tiene con il mondo militare, la nostra università ricopre un ruolo di primo piano nella ricerca e sviluppo di software e algoritmi di giustizia predittiva. Infatti, dal 2017 Ca’ Foscari è una delle prime università in Italia a collaborare con diversi enti (in questo caso con il Centro studi giuridici dell’ateneo veneziano, la Corte d’Appello di Venezia, Unioncamere e Deloitte) per progetti di ricerca e sviluppo di questo “innovativo” strumento giuridico. Ma cos’è la giustizia predittiva? Con questa espressione si intende l’utilizzo di algoritmi e software che affiancano, per semplificare e velocizzare, il lavoro di giudici e avvocati. Si creano delle piattaforme online che restituiscono, a chi le interroga, la probabilità di vittoria o di perdita di un particolare caso giuridico. Questa capacità è data dall’analisi algoritmica degli esiti dei casi in questione conclusi nel passato, da cui poi la piattaforma riesce a restituire una previsione sull’esito di un determinato caso e quindi, a cascata, a modificare, seppure per ora in minima parte (la piattaforma è pronta ma aspetta la delibera per entrare in funzione), l’operato di giudici – il cui lavoro viene velocizzato e alleggerito, poiché la loro scelta viene basata sugli esiti dei casi precedenti – e avvocati – che scelgono se seguire una causa o meno a seconda della probabilità di vittoria –, che si fanno influenzare da quanto “prevede” questa piattaforma online. Per i giudici, la giustizia predittiva serve a velocizzare e alleggerire il lavoro.
Il sistema giudiziario serve a chi governa per difendersi da chi è governato, delegando il tutto a una presunta imparzialità della legge. Nella fase che stiamo attraversando, ovvero negli scenari di guerra che si stanno generalizzando in tutto il mondo, la necessità di controllare e reprimere il cosiddetto fronte interno (le popolazioni di ogni nazione), è sempre più stringente, tanto da creare la fittizia necessità di strumenti come la polizia predittiva e, appunto, la giustizia predittiva. Se si allarga lo sguardo, e si legge il rapporto che si sta diffondendo nei confronti della cibernetica, non tanto in chiave di “cieca fede” nelle macchine ma piuttosto di “inevitabile coesistenza” tra l’uomo e la macchina, allora il cerchio si chiude: l’utilizzo di questi strumenti diventa “necessario” ma soprattutto “inevitabile” per garantire la pace e la sicurezza, e mettere in questione tutto ciò diventa più complicato.
Quali sono i rischi più evidenti che abbiamo intravisto nello sviluppo e diffusione futura della giustizia predittiva? Principalmente tre. Primo: difficoltà di evoluzione della giurisprudenza. Gli algoritmi predittivi funzionano analizzando i casi del passato per prevedere come andranno quelli futuri. Se giudici e avvocati prendono in considerazione i consigli di questi software, si può creare una costante reiterazione del passato nel futuro. Questo limita la possibilità di evoluzione della giurisprudenza, che non si adegua ai cambiamenti sociali e culturali delle società ma rimane ancorata a un passato che si ripresenta costantemente nel presente sotto forma cibernetico-algoritmica.
Secondo: polarizzazione in termini di classe della giustizia. Infatti, l’avvocato che deve scegliere che casi seguire sotto consiglio algoritmico, sceglierà i casi con più alta probabilità di vittoria, per ottenere più prestigio e quindi poter aumentare il “proprio” prezzo, diventando così inaccessibile per le persone meno abbienti. Di conseguenza, i casi che l’algoritmo indica come destinati a fallire saranno lasciati ad avvocati d’ufficio o con meno esperienza, gli unici con prezzi più accessibili alle fasce più povere della popolazione.
Terzo: da un punto di vista più generale, l’aggiunta di una componente macchinica a un aspetto così delicato come il rapporto tra lo Stato e i suoi cittadini. Algoritmi e intelligenza artificiale sono creati dall’uomo e ne ripropongono la visione del mondo. In un mondo in cui le divisioni per linee di genere, di razza, di classe e così via generano disuguaglianze ovunque, dotarsi di strumenti che ne aumentino la portata non è sicuramente una buona idea.
Per concludere, pensiamo che “ogni lotta aiuta un’altra lotta” e che quindi la lotta portata avanti dal popolo palestinese per liberarsi dall’oppressione israeliana aiuti anche noi a lottare contro le varie forme di oppressione che viviamo ogni giorno, di cui la militarizzazione è un esempio.
Chi vuole scaricare l’opuscoletto completo su Ca’ Foscari e la guerra, può utilizzare il link di questa puntata di “Macerie su Macerie” di Radio Blackout. (collettivo sumud)
Per informazioni, materiale di approfondimento e altro
E-mail: collsum@logorroici.org
Profilo Instagram: collettivo.sumud
Leave a Reply