Twitter è esente da responsabilità diffamatoria, fruendo del safe harbour ex § 230 CDA statunitense

Altra decisione che esenta Twitter da responsabilità diffamatoria sulla base del § 230 Communication Decency Act CDA.

Si tratta di US DISTRICT COURT EASTERN DISTRICT OF NEW YORK del 17 settempbre 2020, MAYER CHAIM BRIKMAN (RABBI) ed altri c. Twitter e altro, caso 1:19-cv-05143-RPK-CLP.  Ne dà notizia l’aggiornato blog di Eric Goldman.

Un rabbino aveva citato Twitter (e un utente che aveva retwittato)  per danni e injunction, affermando che Twitter aveva ospitato e non rimosso un finto account della sinagoga, contenente post offensivi. Dunque era responsabile del danno diffamatorio.

Precisamente: <<they claim that through “actions and/or inactions,” Twitter has “knowingly and with malice . . . allowed and helped non-defendant owners of Twitter handle @KnesesG, to abuse, harras [sic], bully, intimidate, [and] defame” plaintiffs. Id. ¶¶ 10-12. Plaintiffs aver that by allowing @KnesesG to use its platform in this way, Twitter has committed “Libel Per Se” under the laws of the State of New York. Ibid. As relevant here, they seek an award of damages and injunctive relief that would prohibit Twitter from “publishing any statements constituting defamation/libel . . . in relation to plaintiffs.”>>.

L’istanza è respinta in base al safe harbour presente nel § 230 CDA.

Vediamo il passaggio specifico.

Il giudice premette (ricorda) che i requisiti della fattispecie propria dell’esimente sono i soliti tre:  i) che sia un internet provider; ii) che si tratti di informazioni provenienti da terzo; iii) che la domanda lo consideri “as the publisher or speaker of that information” e cioè come editore-

Pacificamente presenti i primi due, andiamo a vedere il terzo punto, qui il più importante e cioè quello della prospettazione attorea come editore.

<<Finally, plaintiffs’ claims would hold Twitter liable as the publisher or speaker of the information provided by @KnesesG. [NB: il finto account della sinagoga contenente post offensivi].  Plaintiffs allege that Twitter has “allowed and helped” @KnesesG to defame plaintiffs by hosting its tweets on its platform … or by refusing to remove those tweets when plaintiffs reported them …  Either theory would amount to holding Twitter liable as the “publisher or speaker” of “information provided by another information content provider.” See 47 U.S.C. § 230(c)(1). Making information public and distributing it to interested parties are quintessential acts of publishing. See Facebook, 934 F.3d at 65-68.

Plaintiffs’ theory of liability would “eviscerate Section 230(c)(1)” because it would hold Twitter liable “simply [for] organizing and displaying content exclusively provided by third parties.” … Similarly, holding Twitter liable for failing to remove the tweets plaintiffs find objectionable would also hold Twitter liable based on its role as a publisher of those tweets because “[d]eciding whether or not to remove content . . . falls squarely within [the] exercise of a publisher’s traditional role and is therefore subject to the CDA’s broad immunity.” Murawski v. Pataki, 514 F. Supp. 2d 577, 591 (S.D.N.Y. 2007); see Ricci, 781 F.3d at 28 (finding allegations that defendant “refused to remove” allegedly defamatory content could not withstand immunity under the CDA).

Plaintiff’s suggestion that Twitter aided and abetted defamation “[m]erely [by] arranging and displaying others’ content” on its platform fails to overcome Twitter’s immunity under the CDA because such activity “is not enough to hold [Twitter] responsible as the ‘developer’ or ‘creator’ of that content.” … Instead, to impose liability on Twitter as a developer or creator of third-party content—rather than as a publisher of it—Twitter must have “directly and materially contributed to what made the content itself unlawful.” Id. at 68 (citation and internal quotation marks omitted); see, e.g., id. at 69-71 (finding that Facebook could not be held liable for posts published by Hamas because it neither edited nor suggested edits to those posts); Kimzey v. Yelp! Inc., 836 F.3d 1263, 1269-70 (9th Cir. 2016) (finding that Yelp was not liable for defamation because it did “absolutely nothing to enhance the defamatory sting of the message beyond the words offered by the user”) (citation and internal quotation marks omitted); Nemet Chevrolet, Ltd. v. Consumeraffairs.com, Inc., 591 F.3d 250, 257 (4th Cir. 2009) (rejecting plaintiffs’ claims because they “[did] not show, or even intimate” that the defendant “contributed to the allegedly fraudulent nature of the comments at issue”) (citation and internal quotation marks omitted); see also Klayman v. Zuckerberg, 753 F.3d 1354, 1358 (D.C. Cir. 2014) (“[A] website does not create or develop content when it merely provides a neutral means by which third parties can post information of their own independent choosing online.”).

Plaintiffs have not alleged that Twitter contributed to the defamatory content of the tweets at issue and thus have pleaded no basis upon which it can be held liable as the creator or developer of those tweets. See Goddard v. Google, Inc., No. 08-cv-2738 (JF), 2008 WL 5245490, at *7 (N.D. Cal. Dec. 17, 2008) (rejecting plaintiff’s aiding and abetting claims as “simply inconsistent with § 230” because plaintiff had made “no allegations . . . that Google ‘developed’ the offending ads in any respect”); cf. LeadClick, 838 F.3d at 176 (finding defendant was not entitled to immunity under the CDA because it “participated in the development of the deceptive content posted on fake news pages”).

Accordingly, plaintiffs’ defamation claims against Twitter also satisfy the final requirement for CDA preemption: the claims seek to hold Twitter, an interactive computer service, liable as the publisher of information provided by another information content provider, @KnesesG>>.

Interessante è che l’allegazione censurava non solo l’omessa rimozione ma pure il semplice hosting del post: forse mescolando fatti relativi alla perdita delll’esimente (responsabilità in negativo) con quelli relativi alla responsabilità in positivo.

La Corte di Giustizia sull’ambito del giudicato di accertamento sottostante l’inibitoria: quando ricorre “la medesima violazione” accertata illecita, che può ritenersi contenuta nell’inibitoria e che dunque la viola?

La Corte con sentenza 03.10.2019, C-18/18, Eva Glawischnig‑Piesczek c. Facebook Ireland Limited, interviene con un’attesa sentenza sull’ampiezza del giudicato coperto dall’accertamento di illiceità, sottostante all’inibitoria di comportamenti futuri.

Userò indifferentemente i termini inibitoria e ingiunzione come pure inibire/ingiungere. Injunction in common law corrisponde grosso modo alla nostra inibitoria: solo che ha un contenuto molto più ampio (Mattei U., Tutela inibitoria e tutela risarcitoria, Giuffrè, 1987, 157/8)  e in particolare può avere anche contenuto positivo (si parla infatti oltre che di prohibitory injunction , pure di mandatory injunction: voce Injunction, in A Dictionary of Law Enforcement (2 ed.) a cura di Graham Gooch and Michael Williams, Oxf. Univ. Press, 2015). Da noi invece l’inibitoria è un ordine di cessazione (inibire=vietare), anche se teoricamente si potrebbe vietare una condotta omissiva, nel caso fosse dovuta una condotta positiva (in tema di responsabilità contrattuale, dunque; da vedere in quella aquiliana): difficilmente però, in tal caso ne seguirebbe la conseguenza logica di dover tenere una condotta positiva precisamente individuata (l’intercambiabilità tra ottica positiva e negativa è però affermata da Frignani A., voce Inibitoria (azione), Enc. dir., 1971, § 7 Contenuto: <<La contraddizione è soltanto apparente, in quanto ciò che si vuole impedire per il futuro (o inibire) è l’illecito in se stesso; e non c’è dubbio che l’illecito visto sotto il profilo della condotta, possa essere sia commissivo sia omissivo secondo il tipo di obbligo violato. Di conseguenza, di fronte ad un illecito commissivo si avrà una condanna ad un non facere, mentre, invece, in presenza di un illecito omissivo si avrà una condanna ad un facere. Bisogna tuttavia rilevare che si tratta di due aspetti dello stesso fenomeno, talvolta inscindibilmente legati l’uno all’altro, talvolta addirittura intercambiabili. Infatti, da un punto di vista teorico, anche l’inibitoria positiva potrebbe sempre essere rovesciata in una inibitoria negativa. Il che è quanto dire che il giudice invece di ordinare un determinato comportamento atto a far cessare l’illecito, potrebbe ordinare la cessazione dell’illecito tout court. In altri termini, sempre in linea puramente teorica, si potrebbe affermare che tutte le inibitorie positive potrebbero risolversi in altrettante inibitorie negative>>. In breve, da noi l’inibitoria in linea di massima ha contenuto solo negativo cioè ordina un’astensione (solamente un contenuto negativo per Basilico, La tutela civile preventiva, Giuffrè, 2013, 205-216, secondo cui quando ha un contenuto positivo si tratta di tutela contro l’inadempimento contrattuale). La traduzione italiana della sentenza usa il termine ingiunzione.

A dire il vero non è chiarissimo se riguardi pure la rimozione di materiale già caricato o solo l’inibizione o blocco di caricamenti futuri . Le cose potrebbero combinarsi, dal momento che qualche caricamento potrebbe sfuggire ai filtri: quindi  potrebbe succedere di dovere rimuovere ciò che oggi non c’è sul server del provider ma che in futuro ci sarà.

I fatti storici contemplano un post diffamatorio su Facebook inerente una politica austriaca: consisteva in un link ad altro sito (del quale il post offre un’anteprima) e un commento diffamante.

La questione giuridica sorta riguarda il se eventuali futuri comportamenti identici da altra fonte, oppure anche solo equivalenti, rientrino tra quelli oggetto dell’inibitoria. Anzi più precisamente la questione è affrontata dal punto di vista del contenuto dell’inibitoria e cioè nell’ottica del giudice che deve emetterla. Ma il problema si pone anche se il giudice nulla dice in proposito (non è scontato che il dictum giudiziale in tale caso vada interpretato in modo formalistico e rigoroso).

In sostanza il giudice a quo chiede  se il diritto europeo e in particolare l’articolo 15 paragrafo 1 direttiva 31/2000 (divieto di porre obblighi di sorveglianza o di ricerca generalizzati) osti ad un’inibitoria (anzi letteralmente: ad un obbligo di rimuovere, ma come detto poi il giudice lo interpreta anche come riferito ad un ordine di bloccare l’accesso futuro) di caricamenti di informazioni future “identiche” a quelle accertati illeciti e prescindere dall’uploader (cioè da chi metta on line le informazioni stesse). Cioè identiche nel contenuto ma non nel soggetto che le metta on line.

Chiede poi se osti ad inibitoria riferite a contenuti non identici a quelli accertati illeciti ma solo “equivalenti” ad essi. Qui però la Corte stranamente non menziona più il profilo soggettivo e cioè la questione della rilevanza dell’identità o diversità dell’uploader (cioè se faccia una qualche differenza, ai fini dell’inibitoria di informazioni equivalenti, che siano caricate dall’uploader originario oppure da un soggetto terzo)

Nell’ambito di tale questione si chiede poi  se gli effetti di tale ingiunzione possono essere estesi a livello mondiale

la terza questione pregiudiziale non è ben chiara e sembra riferita al dovere di trattamento di informazioni illecite non identiche bensì equivalenti , appena il gestore ne sia venuto a conoscenza: e cioè a prescindere, sembrerebbe, dal soggetto che glielo notifica. Di questa domanda , data la sua scarsa comprensibilità, non mi occupo (l’intero set delle questioni pregiudiziali non è però scritto o tradotto in modo molto chiaro).

Circa la prima domanda pregiudiziale la Corte afferma che il giudice può legittimamente esigere il blocco dell’accesso alle informazioni identiche a quelle già accertati illecite, a prescindere da chi sia l’uploader (<< qualunque sia l’autore della richiesta di memorizzazione>> par. 37).

E’ abbastanza semplice  arrivare a questa conclusione, dal momento che è certo che non ricorre il concetto di sorveglianza/ricerca generale ex art. 15 dir., unico aspetto rilevante presso la Corte .

Più complesso è il secondo quesito, relativo alla possibilità di inibire anche permanenza o caricamenti  di materiali o informazioni dal contenuto equivalente anziché identico a quello già accertato illecito

(si dovrebbe distinguere, dato che si può ordinare di : i) evitare caricametni futuri; ii) far permanere caricamenti passati già effettuati; iii) far permanere caricamenti futuri che venissero effettettuati nonostante i filtri perchè in violazione o comunque in superamento degli stessi)

Il giudice europeo ritiene che l’ingiunzione, per essere effettiva e cioè per far effettivamente cessa l’illecito/impedirne il reiterarsi, deve  potersi estendere alle informazioni equivalenti: cioè a quelle che recano sostanzialmente il medesimo messaggio, anche se formulato in modo leggermente diverso. Precisamente dice <<deve potersi estendere alle informazioni il cui contenuto, pur veicolando sostanzialmente lo stesso messaggio, sia formulato in modo leggermente diverso, a causa delle parole utilizzate o della loro combinazione, rispetto all’informazione il cui contenuto sia stato dichiarato illecito. Diversamente infatti, e come sottolineato dal giudice del rinvio, gli effetti inerenti a un’ingiunzione del genere potrebbero facilmente essere elusi tramite la memorizzazione di messaggi appena diversi da quelli dichiarati illeciti in precedenza, il che potrebbe condurre l’interessato a dover moltiplicare le procedure al fine di ottenere la cessazione dei comportamenti illeciti di cui è vittima>> (par.  41).

La Corte però ricorda che la tutela del soggetto le Ieso non è assoluta e deve conciliarsi con le esigenze di non imporre obblighi eccessivi al provider: è questa la ragione dell’articolo 15 comma 1 dir. 31 (§ 44). In applicazione di questo criterio, allora, afferma che le informazioni “equivalenti” sono quelle che <<contengono elementi specifici debitamente individuati dall’autore dell’ingiunzione>> (cioè dal giudice),  <<quali il nome della persona interessata dalla violazione precedentemente accertata, le circostanze in cui è stata accertata tale violazione nonché un contenuto equivalente a quello dichiarato illecito>> (§ 45). Si precisa pure che <<differenze nella formulazione di tale contenuto equivalente rispetto al contenuto dichiarato illecito non devono, ad ogni modo, essere tali da costringere il prestatore di servizi di hosting interessato ad effettuare una valutazione autonoma di tale contenuto>> (§ 45).

Ora, che debba esserci equivalenza anzi identità circa il nome della persona interessata (l’aggredito) e  equivalenza circa le circostanze relative alla violazione (nel caso: opinioni sulla politica di accoglimetno dei migranti) è condibvisibile e potrebbe essere non difficile da accertare in concreto. Potrebbe invece essere difficile accertare  l’equivalenza circa il resto del contenuto e cioè il giudizio negativo e diffamante sulla persona.

La Corte lodevolmente cerca di ridurre il margine di opinabilità e tutelare quindi la libertà imprenditoriale del provider, in mancanza di uno specifico Safe Harbor per la fase esecutiva delle inibitorie (non menziona la libertà di espressione e di inoformazine dell’uploader: probabilmente dato che in thesi si tratta di caricamente di materiali illeciti). Precisa che << la sorveglianza e la ricerca che richiede sono limitate alle informazioni contenenti gli elementi specificati nell’ingiunzione>> e che la ricerca dell’equivalenza non può <<il prestatore di servizi di hosting ad effettuare una valutazione autonoma, e quest’ultimo può quindi ricorrere a tecniche e mezzi di ricerca automatizzati>>: cioè par di capire deve essere palese, ictu oculi rilevabile (non dal soggetto medio di un certo paese ma dal livello medio di professionalità di un operatore del medesimo settore professionale) e deve essere verificabile invia automatica.

Inoltre il dovere è limitato , si badi, alle informaizoni <<contenenti gli elementi specificati nell’ingiunzione>>.

Il passaggio è importante: ad es in relazione alla norma italiana (assente nella direttiva) del 17 comma 3, D. LGS. 70/2003, che afferma la responsabilità civile per chi, richiesto dall’autorità, non abbia prontamente impedito l’accesso oppure, avendo comunque avuto conoscenza dell’illiceità, non ha informato l’autorità stessa. In particolare il riferimento è al primo caso: la violazione di una inibitoria inftti può avvenire anche quando il provider sbagli nella valutazione e ritenga non rientrare nel concetto di equivalenza ciò che invece ex post si accerta rientrarvi. In tal caso infatti  si avrebbe una mancanza di blocco dell’accesso, pur se richiesto dall’autorità: quindi integrandosi la fattispecie posta dal 17 comma 3 punto

In tal modo dice la CG l’ingiunzione non contrasta col divieto di sorvegnlianza rierca generale (§ 47).

La Corte però e sorprendentemente non dedica alcuna riga -salvo errore ad una prima lettura- a specificare se il dictum sull’inbitoria di conteuti equivalenti valga solo verso il medeismo soggetto già ritenuto autore dell’illecito o anche verso terzi. Dico sorprendentemente perchè la distinzione era stata fatta in modo netto dal’AG. Nè lo si capisce dal concetto di equivalenza: questo contiene anche il profilo soggettivo e, se si, lo ritiene discriminante o no? Il che è probabilmente una conseguenza dell’aver sin dall’inizio impostato le questioni pregiudiziali senza dare attenzione a questo punto, come si è segnlato sopra.

L’impressione traibile dal ragionamento svolto, però, è che la Corte ritenga compatibile col diritto UE  l’inibitoria riferita a condotte equivalenti a prescindere da chi possa caricare i materiali illeciti :  cioè non solo se caricati dall’autore del caricamento già accertato illecito, ma da chiunque

Circa la possibilità di inibitorie a livello mondiale il giudice dice che la Direttiva 31 non osta alla stessa. Saggiamente però fa presente -anche se in maniera non chiarissima (più chiaro è il relativo passaggio dell’AG) che  va tenuta in considerazione la coerenza della normativa dell’UE con le norme internazionali: in particolare aggiungerei -sulla scia di quanto detto dall’avvocato generale- il rapporto con la sovranità che gli altri stati esercitano sui loro territori e popolazioni. Pretendere infatti di bloccare caricamenti, che possono avvenire da qualunque parte del mondo, potrebbe essere ritenuto incompatibile con le sovranità nazionali sugli altri territori e con le rispettive legislazioni,le quali possono essere diverse (§ 100). E’ il problema delle cross-borders injuntions e cioè della possibilità di effetti extraterritoriali di un provvedimento giudiziale (analogamente, direi, al caso di esecizio della sovranità tramite non  l’organo giudiziario ma tramite quello legislativo e cioè tramite  una norma di legge che pretendesse di applicarsi anche all’estero): non nuovo nel dibattito giuridico.

La struttura del ragionamemento sul punto è analoga a quella della recente sentenza nel caso Google c. Commission nationale de l’informatique et des libertés (CNIL), del 24.09.2019, C-507/17 sul c.d. delisting nazionale, europeo o mondiale (l’analogia è negata da Andrej Savin  nel suo  EU Internet Law & Policy Blog , The CJEU Facebook Judgment on Filtering with Global Effect: Clarifying Some Misunderstandings 4 ottobre 2019). In entrambi i casi la Corte dice che il delisting mondiale non è contrario a specifiche norme di diritto UE, ma non è nemmeno imposto. dalle stesse (anche qui assai più utili sono le  Conclusioni dell’AG  10.01.2019, che guarda caso è il medesimo)

Passiamo alle conclusioni dell’avvocato generale (poi: AG) 04.06.2019, un po’ più articolate.

Dopo aver chiarito che il provider è soggetto ad ingiunzioni anche se non è responsabile delle informazioni e che la disciplina delle ingiunzioni spetta e diritti nazionali (§§  32-33), affronta il divieto di obbligo generale in materia di sorveglianza.

Ricorda che questo va inteso come sorveglianza sulla totalità o quasi totalità dei dati di tutti gli utenti del suo servizio ti richiama con ciò le sentenze L’Oreal e Scarlett x-tended (§ 35 ).

Qui introduce un’osservazione sulla cui esattezza bisognerebbe ragionare. Dice che se uno Stato potesse imporre una sorveglianza generale, il provider perderebbe il suo carattere tecnico, automatico e passivo e cioè non sarebbe più neutro (§ 36). il punto è discutibile, dal momento che, se la sorveglianza avviene tramite sistemi di filtraggio automatico, la passività del’ISP rimane. Mi  pare tuttavia una questione poco importante, dal momento che il divieto di sorveglianza/ricerca generale è posto dalla legge.

Inoltre l’AG dice che, anche non concordando con ciò, un provider che esercitasse sorveglianza generale potrebbe  essere ritenuto responsabile di qualsiasi informazione illecita, senza rispettare quindi le lettere a e b nel paragrafo 1 articolo 14 punto (§ 37). L’affermazione appare poco lineare e poco pertinente. Da un lato egli sarebbe responsabile non tanto delle informazioni ilecite, quanto del divieto della violazione di questo divieto di sorveglianza, cosa diversa. Dall’altro e soprattutto, ha poco senso ipotizzare uno scenario fattuale di sorveglianza/ricerca generale  che cozzerebbe con lo safe harbour dell’art. 14: lo avrebbe se mancasse un divieto di dovere di sorveglianza/ricerca generale, il quale invece c’è ed è espresso.

Il punto importante è la conclusione di questo passaggio (§ 40), secondo cui dal 14 paragrafo 3 dell’articolo 15 un obbligo imposto da uno Stato nazionale al provider tramite in ingiunzione non può avere la conseguenza di renderlo non più neutro rispetto alla totalità o quasi totalità delle informazioni memorizzate.

L’affermazione non mi pare esattissima perché confonde il fatto col giudizio, che vanno invece tenuti ben distinti. Il fatto è che il dovere di vigilanza riguarda tutte o quasi le informazioni e di tutti gli utenti: il che è condivisibile. Costituisce invece un giudizio il “rendere il provider  non più neutro”. Prima viene il fatto da valutare e poi viene la valutazione del fatto .

Al paragrafo 41 ricorda che si può senz’altro inibire una violazione futura e che ciò non contrasta con  il divieto di sorveglianza generale (§ 41).

Su questo non ci sono dubbi: il dato normativo non è equivoco.

Ricorda poi ai paragrafi 43 e 44 la sentenza L’Oréal che ha legittimato le inibitorie di “nuove violazioni della stessa natura da parte dello stesso commerciante nei confronti degli stessi marchi” (C. G. 12.07.2011,  C‑324/09, L’Oreal ed altri c. eBay, § 141.

Quindi un provider può essere costretto a rimuovere informazioni illecite non ancora diffuse, senza che la diffusione venga portata nuovamente a sua conoscenza tramite comunicazione ad hoc e in maniera separata rispetto alla domanda iniziale (AG § 44). il che sembra voler dire che non serve una nuova contestazione ed eventualmente un nuovo processo.

Deve trattarsi però di violazioni della stessa natura, dello stesso destinatario e nei confronti degli stessi diritti: § 45. Qui c’è forse una ripetizione poiché violazioni della stessa natura e nei confronti degli stessi diritti dicono forse la stessa cosa: una violazione del medesimo diritto costituirà spesso una violazione della stessa natura e così forse pure per il reciproco. Tuttavia dato il tasso di genericità dei concetti di “stessa natura” e “stessi diritti”, è inopportuno soffermarvisi, anche se nella pratica il profilo sarà assai importante.

In ogni caso l’AG ricorda e richiama le sue conclusioni nella causa McFadden C-484/14, § 132, in cui si dice che l’obbligo inibitorio “in casi specifici” (cons. 47 dir. 31) deve essere delimitato per l’oggetto e per la durata. Questi requisiti generali sono adattabili al caso specifico, prosegue l’AG, relativo ad un post su Facebook. dato che un host provider -quale FB- è in condizioni migliori per adottare misure di ricerca ed eliminazione informazioni illecite rispetto al fornitore di accesso (§  48).

Affronta poi (§ 49) il requisito della limitazione temporale, richiamando le sentenze L’Oréal, § 140, e Netlog, § 45 (dove però si legge <<implica una sorveglianza, nell’interesse di tali titolari, sulla totalità o sulla maggior parte delle informazioni memorizzate presso il prestatore di servizi di hosting coinvolto>>, mentre in L’Oreal l’ingiunzione era riferita solo ai marchi in causa). Dice che un obbligo di sorveglianza permanente è difficilmente conciliabile con il concetto di obbligo “applicabile a casi specifici” ai sensi del cons. 47 dir. 31.

L’affermazione non persuadegranchè , dal momento che l’inibitoria concernente un solo cliente, se non addirittura una singola opera o opere determinate, anche se illimitato nel tempo, non  può rientrare nel concetto di “sorveglianza/ricerca  generale”.

Potrebbe semmai confliggere con la necessità che le misure siano proporzionate e soggette a termini ragionevoli (art. 3 § 2 e § 1 della dir. 48/2004).

La sintesi è al § 50: <<Di conseguenza, il carattere mirato di un obbligo in materia di sorveglianza dovrebbe essere previsto prendendo in considerazione la durata di tale sorveglianza, nonché le precisazioni relative alla natura delle violazioni considerate, al loro autore e al loro oggetto. Tutti siffatti elementi sono interdipendenti e connessi gli uni agli altri. Essi devono essere pertanto valutati in maniera globale al fine di rispondere alla questione se un’ingiunzione rispetti o meno il divieto previsto all’articolo 15, paragrafo 1, della direttiva 2000/31>> Rimarco il cenno al limite temporale della misura, poco trattato nei discorsi giuridici in tema: le inibitorie dovranno contenerlo  e sarà interessante vedere in concreto come verrà quantificato.

Ai §§  51-53 ripropone una sintesi del percorso svolto fino a quel momento.

Successivamente va al cuore del quesito sottoposto alla corte. Affronta il primo, il più semplice, cioè quello delle informazioni identiche dallo stesso utente o anche da altri utenti. Tenendo conto che si tratta di un’ordinanza cautelare [il che però appare irrilevante]  e che esistono strumenti informatici tali per cui l’attività del provider non consiste in un filtro attivo e non automatico, l’AG ammette la compatibilità col divieto di sorveglianza generale dell’inibitoria per violazioni identiche a carico e provenienti da qualunque utente (§§ 57 61). Sul punto  èstato quindi seguito dalla CG.

Poi affronta l’inibitoria su contenuti equivalenti. Ancora una volta, è questo il passaggio più importante e delicato

Ricorda che dalla domanda di pronuncia pregiudiziale il concetto di informazione equivalente <<riguarda le informazioni che divergono a malapena dall’informazione iniziale o le situazioni in cui il messaggio resta, in sostanza, immutato. Intendo tali indicazioni nel senso che una riproduzione dell’informazione qualificata come illecita, la quale contenga un errore di battitura, nonché quella che presenti una sintassi o una punteggiatura diverse, costituisce un’«informazione equivalente»>> (§ 67)

Poi ricorda che le violazioni in materia di proprietà intellettuale sotto questo profilo sono diverse delle violazioni dell’onore (diffamazioni). Infatti è più frequente nelle violazioni del primo tipo che ci sia la ripetizione della condotta accertata illecita,  mentre questo è insolito per le diffamazioni. In questa ultime dunque il riferimento ad atti della stessa natura non può svolgere lo stesso ruolo che svolge in materia di violazione della proprietà intellettuale : §§ 69-70. Altro punto non secondario: trovare il nucleo del fatto lesivo in una violazione di autore sarebbe più semplice che in una di diffamzione.

Sembra puoi dire che il riferimento a informazioni “equivalenti” incide sulla ampiezza dell’obbligo di sorveglianza e dunque che -se opportunamente modulato- rispetta il divieto di sorveglianza generale. Un giudice quindi in via inibitoria può statuire sulla rimozione di informazioni equivalenti ma <<deve (…) rispettare il principio della certezza del diritto e garantire che gli effetti di tale ingiunzione siano chiari, precisi e prevedibili.Nel farlo, tale giudice deve ponderare i diritti fondamentali coinvolti e tenere conto del principio di proporzionalità.>> (§ 72) .  Il suggerimento è astrattamente giusto ma generico e non aiuta ad applicarlo in concreto.

Pertanto, alla luce di  questa considerazione, al provider può essere  ordinato di individuare informazioni equivalenti a quella illecita, se provenienti dallo stesso utente: §  73

L’avvocato generale nega invece la possibilità di inibire caricamenti o permanenza di informazioni illecite equivalenti a carico di utenti diversi (qui non seguito dalla CG la quale -salvo errore- non fa la distinzione tra stesso utente/diverso utente). Questo perché <<73. (…) richiederebbe la sorveglianza della totalità delle informazioni diffuse attraverso una piattaforma di rete sociale. Orbene, a differenza delle informazioni identiche a quella qualificata come illecita, le informazioni equivalenti a quest’ultima non possono essere individuate senza che un host provider ricorra a soluzioni sofisticate. Di conseguenza, non soltanto il ruolo di un prestatore che esercita una sorveglianza generale non sarebbe più neutro, nel senso che non sarebbe soltanto tecnico, automatico e passivo, ma tale prestatore, esercitando una forma di censura, diverrebbe un contributore attivo di tale piattaforma. 74.      Inoltre, un obbligo di individuare informazioni equivalenti a quella qualificata come illecita provenienti da qualsiasi utente non assicurerebbe un giusto equilibrio fra la protezione della vita privata e dei diritti della personalità, quella della libertà d’impresa, nonché quella della libertà di espressione e di informazione. Da un lato, la ricerca e l’individuazione di siffatte informazioni richiederebbero soluzioni costose, le quali dovrebbero essere elaborate e introdotte da un host provider. Dall’altro, l’attuazione di siffatte soluzioni darebbe luogo ad una censura, con la conseguenza che la libertà di espressione e di informazione potrebbe essere sistematicamente limitata>>.

L’affermazione lascia un pò perplessi. Inibire contenuti equivalenti a quelli specificamente accertati illeciti non significa imporre un dovere di sorveglianza/ricerca generale, come era invece ad es. nel caso Sabam Netlog. E’ vero che nel caso qui sub iudice riguarda tutti gli utenti, ma solo circa i contenuti equivalenti a quelli accertati illeciti: quindi inibisce in modo molto specifico.

Secondo l’AG la ricerca delle informazioni equivalenti impone soluzioni sofisticate e quindi richiedenti investimenti finanziari.  Dal che seguirebbe che il suo ruolo non solo non sarebbe più neutro ma, esercitando una forma di censura, diventerebbe un contributore attivo della piattaforma.

Affermazione però poco condivisibile, poiché lo stesso avviene anche quando il controllo sulle informazioni equivalente riguarda un solo utente (quello autore del illecito o altro non conta). L’aumentare il numero delle persone sorvegliate, se il meccanismo è automatico, non rende il ruolo del provider attivo anziché passivo. Il filtraggio è automatico o per tutti o per nessuno: non può esserlo solo per uno o pochi e non per la genralità. Diverso sarebbe se avvenisse in via umana e manuale: allora sì farebbe la differenza il numero dei soggetti da sorvegliare. Così pure la necessità di adottare soluzioni tecnicamente sofisticate non ha nulla a che fare con la generalità della sorveglianza. questa concerne l’ambito oggetivo del controllo, non l’entità dei mezzi finanziari per realizzarlo. I mezzi finanziari per conseguire gli strumenti tecnici hanno a che fare con il livello di diligenza che è cosa diversa dal dato oggettivo della delimitazione dell’ambito da sottoporre a controllo.

Poi passa ad esaminare la possibilità di estendere l’inibitoria anche a livello mondiale. l’AG affronta quindi la questione della extraterritorialità del provvedimento di rimozione. La soluzione è negativa nel senso che -par di capire- è meglio che il giudice si autolimiti alla sfera dello Stato a cui appartiene, anche se astrattamente e formalmente la normative UE non vi osterebbe.

Ciò sulla base soprattutto dei seguenti argomenti, se ben capisco (ma il punto è complesso, richiedendosi un approfondimento internazionalprocessualistico): i) sarebbe di difficilissima attuazione pratica, se si segue l’insegnamento di C.G. 17.10.2017, C-194/16, Bolagsupplysningen OÜ-Ilsjan c. Svensk Handel AB, secondo cui la domanda di rimozione va posta al giudice competente a decidere sul risarcimento totale del danno (anzichè frazionato per Stato), il  quale giudicherebbe in base a una o più leggi applicabil (§§ 96): ed un giudice con competenza “totale” sarebbe difficile da trovare.

ii) Inoltre toccherebbe al soggetto leso dimostrare che l’informazione illecita secondo la legge applicabile delle norme di conflitto dello Stato europeo è tale pure secondo tutte le leggi potenzialmente applicabili (§97)? Onere improbo!

iii) Infine un ulteriore ostacolo consiste nel fatto che la tutela dei diritti fondamentali, antagonisti di quello azionato in giudizio può essere diversa nei vari Stati (§ 98-99): col rischio che in questi si rischierebbe di proibire l’accesso ad informazioni e quindi conculcare il diritto di informazione che è invece ammesso in base a quel medesimo Stato (§ 98/99).

In conclusione <<il giudice di uno Stato membro può, in teoria, statuire sulla rimozione di informazioni diffuse a mezzo Internet a livello mondiale. Tuttavia, a causa delle differenze esistenti fra le leggi nazionali, da un lato, e la tutela della vita privata e dei diritti della personalità da esse prevista, dall’altro [per inciso: distinzione superflua, dato che la tutela è prevista nelle leggi degli Stati] , e al fine di rispettare i diritti fondamentali ampiamente diffusi, un siffatto giudice deve adottare piuttosto un atteggiamento di autolimitazione. Di conseguenza, nel rispetto della cortesia internazionale, menzionata dal governo portoghese, tale giudice dovrebbe limitare, per quanto possibile, gli effetti extraterritoriali delle sue ingiunzioni in materia di pregiudizio alla vita privata e ai diritti della personalità (52). L’attuazione di un obbligo di rimozione non dovrebbe eccedere quanto necessario ad assicurare la protezione della persona lesa. Pertanto, invece di cancellare il contenuto, detto giudice potrebbe, se del caso, ordinare la disabilitazione dell’accesso a tali informazioni con l’ausilio del blocco geografico>> (§ 100).

Sull’ultima affermazione, mi  chiedo -ai fini della tutela del diritto all’informazione degli utenti- che differenza ci sia tra il dovere di rimuovere e il dovere di bloccare gli accessi: in entrambi infatti gli utenti interessati non possono accedere a quelle informazioni,.