Si possono azionare diritto di parola e diritti fondamentali verso Google e Twitter? Non è pregiudizialmente escluso

L’annosa questione, del se il diritto di parola negli USA sia azionabile anche contro le grandi piattaforme (Big Tech), trova una possibile risposta positiva in US D.C. corte distrettuale del New Hampshire 28.01.2021, Civil No. 1:19-cv-978-JL, N. DeLima c. Google-Twitter.

Erano stato azionati (“pro se” : senza difesa tecnica) la violazione sia dei dirtti fondamentali ex 42 US Code § 1983 , sia  del Primo Emendamento: disposizioni, però, che sono riferite a condotte statali o pubbliche (state action), non a condotte di enti privati quali sono le Big Tech.

La corte ha rigettato ma non perchè sia pregiudizialmente escluso, bensì perchè l’attrice non ha sufficientemente argomentato in modo da poter ravvisare state acrtion anche nella condotta delle Big Tech.

Osserva infatti: <<Defendants are private companies and not state actors, and thus cannot be held liable under 42 U.S.C. § 1983, absent factual allegations that could lead to a finding of state action. DeLima’s complaint is devoid of any allegation that could transform either defendant into a state actor for purposes of a § 1983 claim>>, p. 12.

E poco sotto, circa il Primo Emendamento: <<DeLima repeatedly alleges in her complaint that Defendants’ have violated the First Amendment and discriminated against her based on her protected speech and viewpoint. Yet she acknowledges that Defendants are private companies and not government entities, which is fatal to her claim. “[T]he constitutional guarantee of free speech is a guarantee only against abridgment by government, federal or state.” Hudgens v. NLRB, 424 U.S. 507, 513 (1976). “[E]very First Amendment claim thus requires state action in some sense,” and DeLima has failed to allege any state action on the part of Defendants that could give rise to an alleged violation of her free speech rights. … She accordingly has failed to state a claim for violation of the First Amendment and Defendants’ motion to dismiss this claim is granted>>, p. 13.

Non c’è quindi chiusura pregiudiziale. Bisogna però argomentare, nel senso che la condotta delle Big Tech, in relazione alla esigenze soddisfatte dalle disposizioni de quibus, è parificabile alla condotta statale.

Da noi è pacifico che l’art. 2 Cost. riguiardi il rapporto verso qualunque ente, pubblico o privato che sia.

La corte poi rigetta pure per il safe harbour posto dal noto § 230 CDA communication decency act

(notizia della sentenza  e link presi dal blog di Eric Goldman)

Prime decisioni del Facebook Oversight Board

Il Facebook Oversight Board (FOB) , organo creato da Facebook (F.) per decidere su ricorsi contro decisioni di content moderation di F. e di Instagram, ha emesso il 28 gennaio 2021 le prime sei decisioni.

E’ la prima volta che un Board così strutturato (indipendente, dice F.) e autorevole si pronuncia sulle decisioni sul <take down/keep> di un  social network (prob. è la prima volta in assoluto di un Board di qualunque tipo). Inoltre capita che lo faccia con il più grosso social del mondo.

E’ questione che da anni sta al centro del dibattito mondiale sulla content moderation praticata dalle piattaforme.

Si tratta allora di giorno importante e non solo per chi si occupa della materia.

Alcune delle sei decisioni hanno rovesciato la decisione in prima battuta di F.

Qui il link alle decisioni nel sito di FOB e qui invece il link al Facebook Oversight Board blog (FOBblog) di Lawfare , che, oltre a riprodurre le decisioni stesse (v. <Case Documents>) , le esamina approfonditamente con i migliori specialisti (v. <Lawfare Analysis> ove ad es. il post 28 gennaio 2021 di Evelyn Douek).

Approfondita sentenza d’appello sulla esenzione da responsabilità per gli internet provider (Twitter) ex § 230 CDA

La corte di appello della California approfondisce la interpretazione del § 230 Communication Decency Act, che offre il noto safe harbour agli inernet service providers.

Si tratta della 1st Appellate District-division one, 22.01.2021 n. A158214, Murphy c. Megan.

La sentenza è alquanto analitica e interessante, anche perchè affronta e supera due insidiose prospettazioni attoree, contrarie alla concedibilità del safe harbour a Twitter (poi: T.).

I fatti.   Meghan Murphy (M.), giornalista freelance con 25.000 follower,  aveva postato su T. messaggi intolleranti verso donne transgender. T. prima l’avvisa di rimuoverli e poi la sospende in via definitiva

M.  cita T. e fa valere violazione di contratto, promissory estoppel e violazione della legge sulla concorrenza sleale (unfair and fraudulent business practices).

E’ il § A della Discussion  ad esaminare il § 230(c)(1) CDA, unica questione qui ricordata.

Per la corte sono soddisfatti i tre requisiti previsti e dunque il safe harbour va concesso a T., p .13/4.

Si noti che non si tratta di mancata rimozione di contenuti di terzi asseritamente illeciti , bensì dell’opposto caso di illecita rimozione di contenuti dell’attore in causa.

M. cerca di evitare il § 230 CDA,  dicendo che no ns itratta di contenuti di terzi ma di promesse contrattuale dello stesso T.

La Corte rigetta questo argomento, dicendo che può applicarsi anche alle vioalazioni contrattuali e agli proissory estoppel, trattandosi sempre di materiale altrui (cioè non T..) . Riconosce però che altri giudici si son pronunciati in senso opposto, p. 15-23

Questo è il primo dei due punti particolarmente interessanti.

L’altro (il più importante)  riguarda il rapporto tra il n° 1 e il n° 2 del § 230(c) CDA.

Per M. , la piattaforma potrà tutt’al più invocare il n° 2 (irresponsabilità per rimozione), non il n° 1, p. 23 ss..

Per la corte invece opera il n° 1 , che copre tutte le decisioni interenti la pubblicazione, sia nel senso di di pubblicare che in quello di rimuovere, purchè si tratti di materiali di terzi.

Il n° 2 cit. dà protezione addizionale a condotte che già non siano coperte dal n° 1: ad es. [o soprattutto]  non coperte perchè non si tratta in tutto o in parte di materiali altrui ma invece totalmente/parzialmente riconducibili al service provider. Dice così : <<as the Ninth Circuit explained in Barnes, section 230(c)(1) “shields from liability all publication decisions, whether to edit, to remove, or to post, with respect to content generated entirely by third parties.” (Barnes, supra, 570F.3d at p.1105, italics added.) Section 230(c)(2), on the other hand, applies “not merely to those whom subsection (c)(1) already protects, but any provider of an interactive computer service”regardless of whether the content at issue was created or developed by third parties.(Barnes, at p.1105.) Thus, section 230(c)(2)“provides an additional shieldfrom liability,” encompassing, for example, those interactive computer service providers “who cannot take advantage of subsection (c)(1) ….because they developed, even in part, the content at issue.” (Barnes, at p.1105, italics added.)>>, p. 24.

(notizia e link alla sentenza presi dal law blog di Eric Goldman)

Finalmente la bozza delle modifiche europee alla regolamentazione dei servizi digitali

la Commissione UE a dicembre 2020 ha fatto circolare la bozza di legislazione sui servizi digitali nota come Digital Services Act , che modifica anche la Direttiva sul commercio elettronico (n 31 del 2000 da noi attuata con il decreto legislativo 70 del 2003).

Si tratta di Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on a Single Market For Digital Services (Digital Services Act) and amending Directive 2000/31/EC,  del 15 dicembre 2020, COM(2020) 825 final  – 2020/0361(COD) .

Ora è tradotta in italiano col nome di <legge sui servizi digitali>.

L’atto è complesso e non vale la pena qui di esaminarlo in dettaglio, dovendo superare lo scoglio del Consiglio e del Parlamento (ove saranno possibili diverse modifiche , come l’esperienza insegna).

Accenno brevemente alle disposizioni che sembrano più significative ad oggi. E’ utile leggere pure l’EXPLANATORY MEMORANDUM iniziale e ad es. qui il rapporto con le altre leggi europee (Consistency with other Union policies)

Va tenuto conto che questo strumento normativo è stato presentato contemporaneamente ad un’altro , il  regolamento sui profili concorrenziali delle piattaforme, detto Digital Markets Act

Il cap. 1 contiene soprattutto definizioni.

Il capitolo 2 è quello che qui interessa maggiormente. Riguarda la responsabilità dei fornitori di servizi internet , articoli 3 e seguenti.  Rimane la tripartizione passata.

Resta uguale la disciplina del mere conduit provider e del caching prpovider, articoli 3/4

Cambia invece un pò (non ci sono però stravolgimenti) quella circa l’hosting. provider. Ad es.  il safe harbour non si applica, quando la piattaforma fa apparire di essere non un mero fornitore di hosting bensì’ il fornitore diretto dell’informazione sub iudice: <<Paragraph 1 shall not apply with respect to liability under consumer protection law of online platforms allowing consumers to conclude distance contracts with traders, where such an online platform presents the specific item of information or otherwise enables the specific transaction at issue in a way that would lead an average and reasonably well-informed consumer to believe that the information, or the product or service that is the object of the transaction, is provided either by the online platform itself or by a recipient of the service who is acting under its authority or control.>>, art.  5 paragrafo 3 (novità assai significativa).

Importante  è pu re l’articolo 6:  il fatto di portare avanti indagini volontarie non fa venir meno necessariamente il safe harbor

Rimane il divieto di imporre obblighi generali di monitoraggio:  la norma appare sostanzialmente invariata (art. 7)

Nell’articolo 8 viene specificato l’ex paragrafo 2 dell’articolo 15 cioè l’assoggettaabilità ad injunction.

Qui ad esempio la particolarità è che la denuncia la richiesta dell’autorità deve concernere un elemento specifico (specific item) a  contenuto illecito. La disciplina viene inoltre arricchita in vario modo (v. paragrafo 2).

La disciplina viene ulteriormente integrata dall’articolo 9 il quale a differenza dell’articolo 8 riguardo a un ingiunzione di fornire informazioni (mentre l’articolo 8 riguardava un ingiunzione per agire contro illegalità). Anche qui si richiede uno specific item , anche se muta l’oggetto: non è più per un oggetto illegale ma è riferito a soggetti (gli utenti dell piattaforma, gli uploaders).

il capitolo III sezione 1, artt. 10 ss. impone una disciplina organizzativa a carico di tutte le piattaforme: vengono imposti l’istituzione di un point of contact, doveri di  trasparenza nel reporting , eccetera

Iel capo III sezione II viene (finalmente!) regolato il meccanismo di notice And Take down con una certa analiticità (articoli 14 e 15)

Ci sono altre disposizioni importanti : ad es. l’esenzione per le imprese micro e piccole (individuate con rinvio all’allegato della  Raccomandazione 2003/361/EC).

Interessante poi l’articolo 19 sui trusted flagger,  che dà priorità alle segnalazione provenienti da questi soggetti particolarmente credibili (trusted flagger appunto, le cui caratteristiche sono indicate al § 2).

E poi previsto il dovere di sospensione per i violatori frequenti , articolo 20, e uno per la notificazione di sospetti di violazioni penali , articolo 21.

E’ posto un obbligo di tracciabilità delle informazioni per i contratti conclusi tramite la piattaforma -articolo 22- e un altro addizionale di trasparenza , ex articolo 23

Ci sono doveri speciali per le very large online platforms . Queste sono quelle con utenti mensili pari/maggiori di 45 milioni (sono ad es. tenute ad eseguire un Risk Assessment , articolo 26). Queste dovranno anche adottare delle misure di mitigation of Risk secondo l’articolo 27 e avranno doveri addizionali (tipo Independent Audit ed altri ancora)

Il capitolo 4 concerne l’enforcement , comprensivo pure di una regola sulla giurisdizione , articolo 40

E’  creata la figura dei cosiddetti Digital Services Coordinators cioè l’Autorità che in ogni Stato sovrintenderà l’attuazione della normativa. I poteri di questi Digital Services coordinators sono indicati  nell’articolo 41

Viene istituito uno un Board indipendente per i servizi digitali (articolo 42) , sostanzialmente per un migliore applicazione del regolamento

La successiva sezione 3 del cap. 4 (art. 50 segg.)  disciplina le conseguenze in caso di violazioni da parte delle very large online platforms (di cui al cit. art. 25).

Infine, il regolamento abroga gli articoli 12-15 della direttiva 2000/31, cit. all’inizio.

Discriminazione su YouTube e Primo Emendamento

La Corte Distrettuale californiana-divisione San Jose, 06.01.2021, nel caso n. 19-cv-04749-VKD, Divino Group e altri contro Google, esamina il caso del se un’asserita discriminazione tramite la piattaforma YouTube possa essere tutelata con ricorso al Primo Emendamento

Gli attori, esponenti della comunità LGBTQ+, si ritenevano discriminati dalla piattaforma di condivisione YouTube in due modalità: i) non gli era permessa la monetizzazione  dei video caricati, che invece è normalmente ammessa da YouTube per i video di maggior successo come introito dalla relativa pubblicità; ii) erano immotivatamente stati qualificati video in <Restricted Mode> (vedi sub pagina 4/5 e pagina 2/3 sulle modalità di funzionamento di queste caratteristiche YouTube)

Gli attori dunque lamentavano la violazione del diritto di parola secondo il Primo Emendamento in relazione al § 1983 del Chapter 42 Us Code, che così recita <<every person who, under color of any statute, ordinance, regulation, custom, or usage, of any State or Territory or the District of Columbia, subjects, or causes to be subjected, any citizen of the United States or other person within the jurisdiction thereof to the deprivation of any rights, privileges, or immunities secured by the Constitution and laws, shall be liable to the party injured in an action at law, suit in equity, or other proper proceeding for redress, except that in any action brought against a judicial officer for an act or omission taken in such officer’s judicial capacity, injunctive relief shall not be granted unless a declaratory decree was violated or declaratory relief was unavailable. For the purposes of this section, any Act of Congress applicable exclusively to the District of Columbia shall be considered to be a statute of the District of Columbia>>

Le ragioni dell’invocazione del Primo Emendamento erano due.

Per la prima, YouTube costituisce uno state actor , quindi sottoposto ai vincoli del primo emendamento . Cio anche perché è la stessa Google/YouTube a dichiararsi Public forum for free Expression (p. 7).

Per la seconda ragione, Google , per il fatto di invocare <<the protections of a federal statute—Section 230 of the CDA—to unlawfully discriminate against plaintiffs and/ortheir content, defendants’ private conduct, becomes state action “endorsed” by the federal government>>, p. 8

Circa il primo punto,  qui il più interessante, la Corte risponde che la domanda è espressamente  ostacolata dal campo di applicazione del Primo Emendamento, così come delineato dalla nota sentenza Praeger University versus Google del 2020: le piattaforme non svolgono le tradizionali funzioni governative, pagina 8/9.

La seconda ragione non è molto chiara.   Sembra di capire che, per il solo fatto che la legge (§ 230 CDA) permetta la censura e quindi la selezione dei post, l’avvalersi di tale norma costituisce esercizio di pubblici poteri, sicchè tornerebbe l’applicabilità del primo emendamento.

La Corte però rigetta anche questa ragione (agina 9/11): <<plaintiffs nevertheless argue that government action exists whereCongress permits selective censorship of particular speech by a private entity>>, p. 11.  Il caso Denver Area del 1996, invocato dagli attori, è molto lontano dalla fattispecie sub iudice, ove manca  un incarico di svolgere pubbliche funzioni (pagina 11).

A parte altre causae petendi (ad es. false association e false advertising ex Lanham Act, sub 2, p. 12), gli attori avevano anche chiesto la dichiarazione di incostituzionalità del §   230 CDA. Anche qui, però,  la corte rigetta, seppur  per ragioni processuali , p .17-18

(sentenza e link tratti dal blog di Eric Goldman, che ora aggiorna su nuova decisione con post 14 luglio 2023).

Sito-bacheca di annunci e esenzione ex § 230 CDA

Un sito web, che ospiti annunci illeciti (nel caso: sfruttamento di minori), può appellarsi all’esenzione da responsabilità posta dal § 230 CDA (communication decency act) statunitense?

Si, secondo la U.S. Dist. Court-NORTHERN DISTRICT OF CALIFORNIA, 20 agosto 2020, J.B. c. Craiglist e altri, Ccse No. 19-cv-07848-HSG .

Il punto è trattato nella parte III.A, p . 5-11.

Ricorrono infatti  tre requisiti della relativa fattispecie:  << ‘(1) a provider or user of an interactive computer service (2) whom a plaintiff seeks to treat, under a state law cause of action, as a publisher or speaker (3) of information provided by another information content provider.’”>>, P. 5.

Il punto più interssante (ma non da noi, trattandosi di normativa solo statunitense) è il coordinamento del § 230 CDA con la novella 2018 c.d. SESTA-FOSTA o solo FOSTA:  Fight Online Sex Trafficking Act (“FOSTA”) and Stop Enabling Sex Traffickers (“SESTA”) , ivi, p. 6/7. Novella che va ad aggiungere il punto (5) alla lettera (e) del § 230.

L’attrice sostiene che detta novella toglie il safe harbour a Craiglist in relazione alle violazioni dedotte.   Il giudice però la pensa all’opposto, pp. 8-10.

All’attrice va male pure con l’ultima difesa, consistente nel ritenere Craiglist sia un “content provider”. Ha infatti buon gioco la Corte nel rigettarla, dal momento che Craiglist si limitava ad ospitare contenuti in toto prodotti da terzi. Viene all’uopo richiamato la decisione Fair Hous. Council of San Fernando Valley v. Roommates.Com, LLC, 521 F.3d 1157, 1162 (9th Cir. 2008), importante perchè richiamato un pò da tutti quelli che si occupano di responsabilità delle piattaforme

Altro discorso è quello della presenza di eventuali segnali di allarme della illiceità, che avrebbero dovuto indurre cautela (se non azioni positive di contrasto ) in Craiglist (red flags di vario tipo, diffide etc.). Tuttavia l’evenienza non è regolata nel § 230 CDA , a differenza dal safe harbour per il copyright (§ 512 DMCA) e a differenza pure dalla nostra disciplina nazional-europea.

(notizia e link alla sentenza presi dal blog di Eric Goldman)

Safe harbour ex § 230 CDA per un software che decide quale venditore assegnare al consumatore?

Una recente decisione californiana esamina una class action contro venditori di prodotti di bellezza.

L’attore cita molti convenuti adducendo di essere stata vittima di frode: invece di prodotti cosmetici gratuiti in prova al solo costo di trasporto, si vide addebitata la carta di credito per importi molto superiori.

Si tratta di US Distr. Court-Southern District of California, 8 dicembre 2020, Leanne Tan c. Quick Box e altri, case No.:3:20-cv-01082-H-DEB .

Si v. Background sub I e sub II per i fatti e lo schema frodatorio (pp. 4-7).

Qui interessa il punto dell’applicabilità del safe harbour ex § 230 CDA, invocato da un gruppo di convenuti (i “Konnektive defendants”).

Costoro, secondo l’attore, <<allegedly create multiple shell companies, each of whom signs up for a unique merchant account; these accounts are then rotated through customer billings with a “load balancing” software to prevent any individual account from being flagged for fraud due to high levels of chargebacks>>, p. 6. In particolare i Konnektive Defendants avevano istituito <<a customer relationship management (“CRM”) software company, who allegedly provides the specialized “load balancing” software to enable the use of multiple merchant accounts. …  The load balancing software automatically spreads consumer purchases across dozens of merchant accounts in order to prevent any one merchant account from being shut down due to excessive chargebacks and/or fraud claims, which ensures the fraudulent scheme can continue. (Id. ¶ 220.) Plaintiff alleges the source code on one of the La Pura landing pages demonstrates that its CRM software is from Konnektiv>>, p. 6-7.

In breve il software dei “Konnektive defendants” volta per volta girava la domanda di spedizione a questo o quel merchant account per ridurre il rischio di segnalazioni (flagging) come sospetti per frode o comunque per eccesso di richieste bancarie di riaaccredito di somme ingiustificametne prelevate dalla carta di credito.

Per questo detto software è chiamato “load balancing software”.

Ebbene, i “Konnektive defendants” invocano il § 230 CDA.

Poteva andargli bene? Certamente no, dato che (sempre che siano internet service providers, il che è assai dubbio) non si tratta di mero diffusore di informazioni dannose proveniente da terzi  (sub III alle pp. 40-42): il software è centrale nell”attuazine della frode per cui i suoi utilizzatori sono di fatto dei concorrenti nella predisposizione e gestione della complessiva offerta ingannatoria.   La disposizione invocata richiede invece proprio che il provider ospiti contenuti di terzi.

Infatti, secondo la prospettazione attorea condivisa dal giudice, <<rather than being a passive transmitter of information provided by others, the Konnektive Defendants were actively engaged and involved in the development of the alleged unlawful content. (Doc. No. 51 at 16–17.) She alleges that every time a customer made a purchase on the La Pura websites, the Konnektive software selected which merchant ID (“MID”) to bill the customer with based on which MID was most likely to be flagged for fraud. (Id.) She alleges this load balancing software is critical to the fraudulent scheme, as without it the fraudulent transactions would be discovered by banks and credit card companies and the merchant accounts would be shut down. (Id.; Doc. No. 1 ¶¶ 328–34, 341.) She also alleges that the Konnektive Defendants’ load balancing software is designed to enable its clients to commit unlawful and fraudulent conduct of the type she alleges and identifies a warning on the Konnektive website to that effect>>, p. 41.

In altre parole si tratta di <content provider>, non di mero <interactive computer service provider>, secondo la disciplina psota dal § 230 (c)(1) e § 230 (f)(2-3) .

(notizia e link alla sentenza presi dal blog di Eric Goldman)

Su streaming musicale, opere derivate, public performance e safe harbour

La corte di Atlanta si pronuncia su una lite promossa dalle major musicali contro un sito di download musicali via streaming.

Si tratta di Corte Distrettuale del Northern District della Georgia, divisione di Atlanta, 30.11.2020, Atlantic recording corporation e altri c. Spinrilla e I.D. Copeland (il fondatore), CIVIL ACTION NO. 1:17-CV-00431-AT.

Le major agiscono contro questi sito web di upload e download di musica hiphop, per lo più nella forma di raccolte (mixtape).

la lunga sentenza è divisa in due parti sotto il profilo sostanziale, dopo la parte in fatto. Di quest’ultima ricordo solo : – il cenno al software di filtraggio Audible Magic portato all’attenzione della convenuta da UMG recordings, uno degli attori,  P. 5; – , e i suggerimenti dati dal fondatore Copeland ai cosiddetti D.J. di rallentare la velocità per superare il filtro: allo scopo, secondo lo stesso Copeland, di trasformare l’opera in opera diversa da quella segnalata, p. 6.

Nella prima parte (sub III, p. 11) , oltre alla questione della necessità o meno del profilo soggettivo, esamina se ricorra  public performance nella mera messa a disposizione  e cioè senza attendere il download: e la risposta è positiva, come ovvio (v. spt. 33-34). Soluzione scontata anche da noi, visto l’art. 16 c.1 ult. parte l. aut.

Nella seconda parte esamina l’eccezione di esimente per safe harbour ex § 512 DMCA (sub IV, p. 34 ss).

Il safe harbour però sortisce solo all’esito di una fattispecie ricca di elementi costitutivi.

A p. 36 ss sono ricordati ed esamnati. Qui segnalo il fatto che la conoscenza effettiva o doverosa da allarme  (red flag) devono riferirsi a <fatti specifici>, p. 36 : cosa spesso dimenticata dai nostri studiosi e giudici .

Inoltre devono ricorrere dei requisiti formal/procedurali: cosa apparentemente banale ma necessaria per fruire dello safe harbour.

Precisamente il provider deve aver designato un agent per ricevere le notificazioni: p. 37 e § 512(c)(2).

INoltre deve anche aver adottato e ragionevolemente attuato una policy contro i violatori seriali (repeat infringer), p. 38 e § 512 (i)(1).

La corte si dilunga su cosa ciò significi, p 39 ss.

Quantomeno significherà che un service provider <<must respond to notifications or red flag knowledge of recurrent instances of specific  nfringement. Id. More clearly, a service provider loses the safe harbor defense if it enables users to evade detection of copyright infringement. See Aimster, 334 F.3d at 655 (holding that the defendant did not reasonably implement a repeat infringer policy when it invited users to infringe plaintiff’s copyrights and showed them how to encrypt their files for distribution in order to evade detection of copyright infringement). Service providers must also keep adequate records of users who commit copyright infringement in order to adequately implement a repeat infringer policy>>, p. 40-41.

Purtroppp Spirilla si adeguò ai due citt. requisiti (designated agent + policy per repeat infrigner) solo nel luglio 2017, p. 42.

Per questo motivo il safe harbour viene negato fino a quella data, p. 43.

Gli attori afermano che anche per il periodo successivo non spetta il safe harbour: ma la Corte ricorda che, come che sia, manca a monte il repsupposto della relativa notiica di take down notice, p. 44-45.

(notizia e link alla sentenza presi dal blog del prof. Eric Goldman)

Marketplace di Amazon, § 230 e prodotti pericolosi

Poco comprensibile decisione statunitense di una lite relativa a responsabilità da prodotto difettoso. Si tratta di US Distr. Court-South D. of New York, 30.11.2020, Brodie c. Green Spot Foods, Amazon services ed altri,  caso n° 1:20-cv-01178-ER.

La sig.ra Brodie aveva acquistato su Amazon (poi: A.) un prodotto alimentare , sostitutivo della pasta, chiamato <Better than Pasta> , a base di radici orientali dette <konjak>. Il venditore era tale Green Spot Foods.

Il prodotto si era rilevato pericoloso, dato che aveva creato non piccoli problemi di salute all’acquirente.

Qui riporto sul problema della (cor-)responsabilità di A.

Il giudice accoglie la domanda per negligence e per breach of implied warranty  (claim I e II); la rigetta per il claim III (breach of express warranty); la rigetta pure per <Deceptive Practices and False Advertising Under N.Y. Gen. Bus. Law §§ 349 and 350> (claim IV), p. 11 ss

Qui interessa quest’ultimo (claim IV).

La domanda di pratica ingannatoria viene rigettata sulla base del safe harbour costituito dal § 230 CDA: disposizione che esenta da responsabilità il provider per informazioni provenienti da terzi e divulgate tramite la sua piattaforma.

Dice così la corte: <<In line with these cases, the Court inds that Amazon is immune under the CDA. The parties do not dispute that Amazon qualifies as a provider of an interactive computer service. Instead, the question is whether Amazon can be considered an information content provider with respect to Better than Pasta’s advertising, and the Court inds that it is not. There is insufficient factual pleading supporting the plausible inference that Amazon itself created or edited any of the Better than Pasta advertising content. Brodie alleges that Green Spot is “the primary entity responsible for” the product’s advertising and manufactured, packaged, and initially created all advertising for the product. … Further, while Brodie asserts that the BSA handed Amazon editorial control over what Green Spot materials were published,  ….. Brodie does not allege that Amazon actually exercised this control to alter or modify advertising materials received from Green Spot, nor alleges facts giving rise to such an inference>>.

Solo che poco sopra (p. 5 nota 3 e testo relativo) il giudice aveva preso per buona la concorde qualificazione  per cui A. è un retailer (rivenditore/dettagliante) e cioè dante causa della sig.ra Brodie. Ciò probabilmente per l’intenso coinvolgimento di A. nella gestione della presenza sul marketplace e delle vendite.

Ora, se A.  è rivenditore, non si vede come possa dirsi che l’informazione difettosa sul prodotto (il mancato avviso della sua rischiosità/pericoosità) provenga dal terzo venditore. E’ infatti A., in thesi, colui che vende al consumatore: pertanto le informazioni di ciò che vende vanno a lui ricondotte, anche se si fosse in toto affidato (de relato) ai contenuti informativi provenienti dal venditore operante sul suo marketplace.

Si tratta infatti di content provider: <<The term “information content provider” means any person or entity that is responsible, in whole or in part, for the creation or development of information provided through the Internet or any other interactive computer service.>>, § 230 (f)(3) CDA

Primo Emendamento e censura da parte di Google-Youtube

Un tribunale dell’Oregon decide la lite inerente una presunta violazione del diritto di parola (coperto dal Primo Emendamento) in relazione a post di commento ad articoli apparsi su Breitbart News: si tratterebbe di violazione ad opera di Google-Youtube (è citata pure Alphabet, la holding).

L’istante allegava la violazione del diritto di parola e poi pure del safe harbour ex § 230 CDA.

Sul secondo punto la corte rigetta in limine dato che non è stata prospettata alcuna violazione della citata normativa, trattandosi di safe harbour.

Sul primo punto, ribadisce l’orientamento prevalente per cui un forum privato (per quanto importante, aggiungo io) non costituisce <ambiente statale> (non vale “State action”) e per questo non è soggetto al PRIMO EMENDAMENTO. Tale  disposizione costituzionale, infatti, riguarda solo l’azione dello Stato.

<<Thus, fundamental to any First Amendment claim is the presence of state action …  Neither Alphabet, nor its subsidiaries, Google and YouTube, are state actors. See Prager Univ., 951 F.3d at 996 (noting that the defendants, YouTube and Google, operated their platforms without any state involvement). Google and YouTube do provide the public with a forum for speech, but that does not make them state actors>>.

Eì vero che talora le corti hanno affermato che <<a private entity was a state actor for First Amendment purposes, most notably when a private entity engaged in functions typically reserved exclusively to state or municipal government. See, e.g., Marsh v. Alabama, 326 U.S. 501 (1946). Belknap’s Complaint makes no allegations that Defendants’ are engaging in municipal functions. The Ninth Circuit, moreover, has explained that private entities who provide the public a forum for speech, including YouTube and Google, are not analogous to private entities who “perform [] all the necessary municipal functions.”>>.

La sentenza si appoggia abbondantemente al precedente di quest’anno Prager Univ. v. Google LLC (decisione di appello del 9 circuito) in cui il tema è analizzato con un certo dettaglio.

Purtroppo non è chiaro il contesto fattuale : non è chiaro se si trattasse di censura di commenti a video (cita Youtube) , magari su un canale o account di Breitbart, o di commenti ad articoli scritti (parla di articles).

Non si può quindi capire quale sia l’importanza della piattaforma portatrice dei post e dunque nemmeno se sia possibile un’applicazione analogica di tale protezione.

Si tratta di Distretto dell’Oregon  01.12.2020, Belknap c. Alphabet-Google-Youtube, caso n° 3:20-cv-1989-SI .

(notizia tratta dal blog di Eric Goldman)