Algoritmi e responsabilità, un futuro da scrivere

In Europa abbiamo una legge che tutela i provider, mettendoli sostanzialmente al riparo da responsabilità, in relazione ai contenuti immessi in Internet da terzi.

Mi riferisco al D. Lgs. 70/2003 (Dir. 2000/31/CE) che distingue i provider in “access provider” quando esercitano un’attività di “mero trasporto” delle informazioni e non partecipano in alcun modo all’attività di scelta del contenuto; “caching provider” quando esercitano un’attività di memorizzazione temporanea delle informazioni che circolano in rete; “hosting provider” quando memorizzano stabilmente le informazioni; e “content provider” quando invece operano una scelta e un inserimento dei contenuti in rete.

Mentre la responsabilità del content provider è ovviamente piena in quanto è lui che decide cosa pubblicare, la responsabilità degli altri soggetti coinvolti è assai attenuata.

La responsabilità del provider

Il caching e l’hosting provider non sono di norma responsabili quando non intervengono sull’informazione, anche se sono tenuti a informare le autorità quando si rendono conto che si sta realizzando una violazione. In questo senso si è espresso, ad esempio, il Tribunale di Firenze nel 2012 (R.G. 14420/12).

Più recentemente il Consiglio di Stato, nella sentenza n. 3851/2021, ha sottolineato che una forma di responsabilità del provider si può riscontrare solo quando esso pone in essere condotte che abbiano l’effetto di completare e arricchire in modo non passivo (ad esempio per il tramite di attività di filtro, selezione, indicizzazione, organizzazione, catalogazione, aggregazione, valutazione, uso e così via) la fruizione dei contenuti da parte degli utenti, escludendola quando manca del tutto una manipolazione dei dati memorizzati dal terzo titolare del sito.

La legge tutela, quindi, moltissimo gli Internet Provider e lo stesso accade negli Stati Uniti, per non ostacolare lo sviluppo delle nuove tecnologie.

Recentemente però qualcosa sembra scricchiolare.

Negli Stati Uniti è stata avviata un’azione legale da parte della famiglia di una vittima della strage di Bataclan nei confronti di Google, ritenuto responsabile di avere lasciato circolare su YouTube video che propagandavano e valorizzavano l’attività dell’ISIS.

Sotto accusa l’algoritmo di Google che proponeva agli utenti, tra cui gli attentatori, video contenenti messaggi terroristici, tenendo conto dei loro gusti e preferenze e che sarebbe stato quindi uno strumento per incentivare a accelerare l’indottrinamento, attività di cui Google avrebbe svolto un ruolo attivo.

Il problema giuridico riguarda l’applicabilità del Titolo 47 U.S. Code, Section 230 che sostanzialmente esonera il provider da responsabilità in quanto viene considerato un soggetto neutrale, estraneo ai contenuti immessi in rete da terzi.

Un caso analogo era stato sottoposto all’attenzione dei giudici americani già nel 2019 (caso Force v. Facebook) in cui Facebook veniva considerato non neutrale, per l’uso di un algoritmo che metteva in comunicazione tra loro persone accomunate dal fatto di visualizzare video di contenuto terroristico, in funzione dei like e delle visualizzazioni.

In quell’occasione la Corte applicò la Section 230 e ritenne Facebook non responsabile per avere utilizzato sistemi di intelligenza artificiale per creare connessioni o per mettere in contatto utenti tra di loro in base ai gusti e alle preferenze, non potendosi condannare lo strumento che, anzi, deve essere valorizzato, di per sé.

A distanza di alcuni anni c’è chi si aspetta un cambio di passo, per evitare che in futuro l’uso degli algoritmi possa contribuire al proliferare di attività illecite senza che vi sia una responsabilità di chi li adotta.

La necessità di conoscere l’algoritmo

È l’annoso tema del mezzo e dell’indispensabilità della conoscibilità dell’algoritmo, conoscibilità che alcuni ritengono non sempre possibile, soprattutto per i sistemi di machine learning.

Se si potesse stabilire l’oggettiva possibilità (che a mio avviso sarebbe una necessità) di conoscere l’algoritmo, allora la prospettiva potrebbe essere diversa, e sul palco delle responsabilità potrebbero scendere sia gli sviluppatori sia gli utilizzatori che dovrebbero essere chiamati a rispondere degli effetti delle loro creazioni.

Non penso a una responsabilità indiscriminata, ma certo da valutare ogni qualvolta, nello sviluppo o nell’uso, non ci si fosse attenuti a tutti quei principi etici che vengono sempre più spesso citati e promulgati.

Ricordiamo che già nella prima Risoluzione del Parlamento Europeo del 17 Febbraio 2017 sulla responsabilità civile dei Robot, venivano richiamate addirittura le leggi della robotica di Asimov e si prevedeva che, dati i rischi legati all’evolversi dell’intelligenza artificiale, potenzialmente destinata a superare anche le abilità umane (così vi si legge, anche se i tecnici non sembrano essere del tutto d’accordo con questa affermazione), si dovessero introdurre severi principi e, addirittura, la possibilità di “spegnere” il robot qualora autonomamente iniziasse ad agire al di fuori delle regole.

Ancora di più nella recente Dichiarazione europea sui diritti e i principi digitali per il decennio digitale del 15 Dicembre 2022, se da un lato si valorizza e si incentiva lo sviluppo dell’intelligenza digitare, dall’altro si evidenzia la necessità di promuovere sistemi affidabili e etici che garantiscano un livello di trasparenza, che evitino la discriminazione e che non siano utilizzati per pregiudicare le scelte delle persone.

L’opinione della Corte Suprema sull’uso di sistemi di intelligenza artificiale, inserita in questo più ampio contesto, può quindi acquistare un significato diverso.

È con questa prospettiva che è stata promossa ed è in questa luce che è particolarmente attesa.

Laura Turini

Lo Studio Brevetti Turini s.r.l. dispone un Software specialistico nella gestione di portafogli brevetti, marchi, design e copyright. “Progetto Software Battista” - Progetto finanziato nel quadro del POR FESR Toscana 2014-2020

PORCreO Regione Toscana