L’azione di danno ex § 512.f Copyright Act concerne solo l’abuso di copyright, non di marchio

UNITED STATES DISTRICT COURT CENTRAL DISTRICT OF CALIFORNIA, CV 22-4355-JFW(JEMx), del 21 aprile 2023,  Yuga Labs, Inc. -v- Ripps, et al., decide una lite su marchio  in causa promossa dal titolare del NFT “Bored Ape” contro un visual artist (Ripps) che lo critica: Ripps is a visual artist and creative designer who purports to create artwork that comments in the boundaries between art, the internet, and commerce. According to Defendants, Yuga has deliberately embedded racist, neo-Nazi, and alt-right dog whistles in the BAYC NFTs and associated projects.3 Beginning in approximately November 2021, Ripps began criticizing Yuga’s use of these purported racist, neo-Nazi, and alt-right dog whistles through his Twitter and Instagram profiles, podcasts, cooperation with investigative journalists, and by creating the website gordongoner.com.

Y. manda allora richieste di notice and take down (NATD) per marchio spt. ma anche per dir. di autrore.

R. reagisce azionando la disposizione nel  titolo.
Ma la corte -delle 25 richieste NATD- esamina solo quelle (quattro) che hanno portato al take down e solo quelli di copyrigjht (una), non quelle su marchio (tre). Del resto il tenore della norma è inequivoco.

E rigetta l’eccezione (o dom. riconvenzionale?): With respect to the only DMCA notice that resulted in the takedown of Defendants’ content,
Defendants have failed to demonstrate that the notice contains a material misrepresentation that
resulted in the takedown of Defendants’ content or that Yuga acted in bad faith in submitting the
takedown notice. Although Defendants argue that Yuga does not have a copyright registration for
the Ape Skull logo that was the subject of the DMCA takedown notice, a registration is not required
to own a copyright. Instead, a copyright exists at the moment copyrightable material is fixed in any
tangible medium of expression. Fourth Estate Public Benefit Corp. v. Wall-Street.com LLC, 139
S.Ct. 881, 887 (2019); see also Feist v. Publ’ns, Inc. v. Rural Tel. Serv. Co., 449 U.S. 340, 345
(1991) (holding that for a work to be copyrightable, it only needs to possess “some minimal degree
of creativity”). Moreover, courts in the Ninth Circuit have held that a logo can receive both
trademark and copyright protection. See, e.g., Vigil v. Walt Disney Co., 1995 WL 621832 (N.D.
Cal. Oct. 16, 1995).

La setnnza è itnerssante però anche -soprattutto.- per  il profili di mnarchio e concorrenza sleale circa l’uso dell’NFT.

(notizia e link alla sentenza dal blog del prof. Eric Goldman)

Recensione diffamante, a carico di avvocato, postata su Google Maps e responsabilità di quest’ultimo: opera il safe harbor ex § 230 CDA?

La risposta è positiva, naturalmente.

Si tratta di avvocato operante nelle vicinenza di Portland e diffamato da pesante recensione postata su Google maps.

Caso facile, allora,  per il Tribunale dell’Oregon Daniloff c. Google+1, 30 gennaio 2023, Case No. 3:22-cv-01271-IM .

Il prof. Eric Goldman dà pure il link alla recensione diffamante .

L’0aavvopcato attopre aveva CHJIESTO danni per 300.000 dollari a google e al recensore.

<<In evaluating Defendant Google’s immunity under the CDA, this Court applies the threefactor Ninth Circuit test. See Kimzey, 836 F.3d at 1268. First, to determine whether Defendant Google qualifies as an interactive computer service provider, this Court notes that Google is an
operator who passively provides website access to multiple users. Fair Hous. Council of San
Fernando Valley v. Roommates.com, LLC, 521 F.3d 1157, 1162 (9th Cir. 2008) (en banc) (“A
website operator . . . [who] passively displays content that is created entirely by third parties . . .
is only a service provider with respect to that content.”). Accordingly, as Defendant Google
argues and Plaintiff concedes, Google qualifies as an interactive computer service provider. ECF
8 at 5; ECF 9 at 3; see also 47 U.S.C. § 230(f)(3); Lewis v. Google LLC, 461 F. Supp. 3d 938,
954 (N.D. Cal. 2020) (collecting cases), aff’d, 851 F. App’x 723 (9th Cir. 2021); Gaston v.
Facebook, Inc., No. 3:12-CV-0063-ST, 2012 WL 629868, at *7 (D. Or. Feb. 2, 2012), report and
recommendation adopted, No. 3:12-CV-00063-ST, 2012 WL 610005 (D. Or. Feb. 24, 2012).
Second, because Plaintiff premises his defamation claim on Defendant Google’s
publication of Defendant Keown’s review, ECF 1-1, Ex. A, at ¶ 22, this Court finds that Plaintiff
seeks to treat Google as a publisher or speaker. See Kimzey, 836 F.3d at 1268 (holding that
defamation claim based on Yelp review was “directed against Yelp in its capacity as a publisher
or speaker” (citing Barnes, 570 F.3d at 1102)).
Third, as the allegedly defamatory review was posted by Defendant Keown, ECF 1-1, Ex.
A, at ¶ 5–7, this Court finds the relevant information was provided by another information
content provider. Rather than allege that Defendant Google created the review, Plaintiff alleges
that Defendant Google “hosted” it via Plaintiff’s Google Business profile, id. at ¶ 30, thereby
“material[ly] contribut[ing]” to the defamatory review. ECF 9 at 3. An entity who “contributes
materially to the alleged illegality of the conduct” at issue is not entitled to protection under
Section 230. Roommates.com, 521 F.3d at 1168.
The Ninth Circuit addressed a similar argument in Kimzey, a case arising out of a
negative review on Yelp’s website. Kimzey, 836 F.3d at 1265. While the plaintiff in that case
claimed that Yelp had “authored” the review at issue through its star-rating system, id. at 1268,
the Ninth Circuit found that “Yelp’s rating system . . . is based on rating inputs from third parties
and . . . [is] user-generated data,” id. at 1270. As such, the Ninth Circuit held that Yelp’s actions
did not qualify as “creation” or “development” of information and that “the rating system [did]
‘absolutely nothing to enhance the defamatory sting of the message’ beyond the words offered
by the user.” Id. at 1270–71 (quoting Roommates.com, 521 F.3d at 1172).
Defendant Keown’s review similarly qualifies as user-generated data and Defendant
Google’s hosting of that review through its Google Business profile system does not qualify as a
material contribution. This Court finds that Plaintiff bases his defamation claim on a review
provided by an information content provider other than Defendant Google—thus fulfilling the
third factor required under Kimzey. See also id. at 1265 (observing that a claim “asserting that
[an interactive computer service provider is] liable in its well-known capacity as the passive host
of a forum for user reviews [is] a claim without any hope under [Ninth Circuit] precedent[]”).
Accordingly, Plaintiff’s defamation claim against Defendant Google satisfies the Ninth Circuit’s
three-factor test and Defendant Google is immune under Section 230 of the CDA.
To the extent that Plaintiff relies on Defendant Google’s refusal to remove Defendant Keown’s review in pursuing his defamation claim, ECF 1-1 at ¶ 11–17; ECF 9 at 4, this Court also holds that Defendant Google is immunized under the CDA for this decision. Roommates.com, 521 F.3d at 1170–71 (“[A]ny activity that can be boiled down to deciding whether to exclude material that third parties seek to post online is perforce immune under Case 3:22-cv-01271-IM Document 11 Filed 01/30/23 Page 6 of 7PAGE 7 – OPINION AND ORDER section 230.”); see also Barnes, 570 F.3d at 1105. Accordingly, Defendant Google’s Motion to Dismiss, ECF 8, is GRANTED.>>

Responsabilità del Registrar di domain names per l’uso illecito del dominio da parte del nuovo assegnatario? Si applica il safe harbour ex § 230 CDA?

L’appello del 9° circuito 3 febbrio 2023, No. 21-16182, Scotts Rigby v. Godaddy, sull’uso indebito del nome di dominio “scottrigsbyfoundation.org;” dato a un terzo e divenuto sito di giochi d’azzardo.

dal Summary iniziale:

<<When Rigsby and the Foundation failed to pay
GoDaddy, a domain name registrar, the renewal fee for
scottrigsbyfoundation.org, a third party registered the thenavailable domain name and used it for a gambling
information site. (…)
The panel held that Rigsby could not satisfy the “use in
commerce” requirement of the Lanham Act vis-à-vis
GoDaddy because the “use” in question was being carried
out by a third-party gambling site, not GoDaddy, and Rigsby
therefore did not state a claim under 15 U.S.C. § 1125(a). As
to the Lanham Act claim, the panel further held that Rigsby
could not overcome GoDaddy’s immunity under the
Anticybersquatting Consumer Protection Act, which limits
the secondary liability of domain name registrars and
registries for the act of registering a domain name. The
panel concluded that Rigsby did not plausibly allege that
GoDaddy registered, used, or trafficked in his domain name
with a bad faith intent to profit, nor did he plausibly allege
that GoDaddy’s alleged wrongful conduct surpassed mere
registration activity>>

E sorpttutto sul § 230 CDA , che protegge da molte domande:

<<The panel held that § 230 of the Communications
Decency Act, which immunizes providers of interactive
computer services against liability arising from content
created by third parties, shielded GoDaddy from liability for
Rigsby’s state-law claims for invasion of privacy, publicity,
trade libel, libel, and violations of Arizona’s Consumer
Fraud Act.

The panel held that immunity under § 230
applies when the provider is an interactive computer
services, the plaintiff is treating the entity as the publisher or
speaker, and the information is provided by another
information content provider.

Agreeing with other circuits,
the panel held that domain name registrars and website
hosting companies like GoDaddy fall under the definition of
an interactive computer service.

In addition, GoDaddy was
not a publisher of scottrigsbyfoundation.org, and it was not
acting as an information content provider.>>

Alcuni spunti sulla nuova (esenzione da) responsabilità europea degli internet provider per i materiali illeciti caricati dagli utenti (artt. 4-8 reg. 2022/2065 Digital Services Act)

Il reg. 2022/2065 del 19.10.2022 disciplina l’esimente delle piattaforme per i materiali illeciti degli utenti (oltre a imporre loro significativi obblighi in positivo, di cui ora non mi occupo).

Si tratta degli artt. 4-8 che sostituiscono gli artt. 12-15 della dir. 2000/31 (art. 89).

Riporto solo alcuni considrando. DA vedere -come sempre- se possano essere ritenuti tradotti in norme giuridiche, visto che per lo più nell’articolato non sono espressamente ripresi.

Fanno giustizia di tanti errori leggibili in dottrina e giurisprudenza sul tema.

<< (17) Le norme sulla responsabilità dei prestatori di servizi intermediari stabilite nel presente regolamento dovrebbero limitarsi a stabilire i casi in cui il prestatore di servizi intermediari interessato non può essere ritenuto responsabile in relazione ai contenuti illegali forniti dai destinatari del servizio. Tali norme non dovrebbero essere intese come una base per stabilire quando un prestatore può essere ritenuto responsabile, circostanza che deve essere determinata in base alle norme applicabili del diritto dell’Unione o nazionale. Le esenzioni dalla responsabilità stabilite nel presente regolamento dovrebbero inoltre applicarsi in relazione a qualsiasi tipo di responsabilità per qualsiasi tipo di contenuto illegale, indipendentemente dall’oggetto preciso o dalla natura esatta di tali leggi.

(18) Le esenzioni dalla responsabilità stabilite nel presente regolamento non dovrebbero applicarsi allorché, anziché limitarsi a una fornitura neutra dei servizi mediante un trattamento puramente tecnico e automatico delle informazioni fornite dal destinatario del servizio, il prestatore di servizi intermediari svolga un ruolo attivo atto a conferirgli la conoscenza o il controllo di tali informazioni. Tali esenzioni non dovrebbero di conseguenza essere disponibili per quanto riguarda la responsabilità relativa alle informazioni fornite non dal destinatario del servizio ma dallo stesso prestatore del servizio intermediario, anche nel caso di informazioni elaborate sotto la responsabilità editoriale di tale prestatore>>.

<< (22) Al fine di beneficiare dell’esenzione dalla responsabilità per i servizi di memorizzazione di informazioni, il prestatore dovrebbe agire immediatamente per rimuovere le attività illegali o i contenuti illegali o per disabilitare l’accesso agli stessi non appena ne venga effettivamente a conoscenza o ne divenga consapevole. La rimozione dei contenuti o la disabilitazione dell’accesso agli stessi dovrebbe essere effettuata nel rispetto dei diritti fondamentali dei destinatari del servizio, ivi compreso il diritto alla libertà di espressione e di informazione. Il prestatore può effettivamente acquisire tale conoscenza o consapevolezza della natura illegale del contenuto, tra l’altro, mediante indagini volontarie o mediante segnalazioni presentategli da persone o enti conformemente al presente regolamento, nella misura in cui tali segnalazioni sono così sufficientemente precise e adeguatamente motivate da consentire a un operatore economico diligente di individuare ragionevolmente, valutare e, se del caso, contrastare i presunti contenuti illegali. Tuttavia, tale conoscenza o consapevolezza effettiva non può essere considerata acquisita per il solo motivo che tale prestatore è consapevole, in senso generale, del fatto che il suo servizio è utilizzato anche per memorizzare contenuti illegali. Inoltre, la circostanza che il prestatore proceda a un’indicizzazione automatizzata delle informazioni caricate sul suo servizio, che il servizio contenga una funzione di ricerca o che consigli le informazioni in funzione del profilo o delle preferenze dei destinatari del servizio non è un motivo sufficiente per considerare che il prestatore abbia una conoscenza «specifica» di attività illegali realizzate sulla medesima piattaforma o di contenuti illegali ivi memorizzati.>> [il più importante; inspoiegabilm ente omesso nell’articolato nonostanteforti  incertezze dottrinali e sopratuttto giurisrpudenziali ]

<< (26) Al fine di garantire la certezza del diritto e non scoraggiare le attività volte a individuare, identificare e contrastare i contenuti illegali che i prestatori di tutte le categorie di servizi intermediari intraprendano su base volontaria, è opportuno chiarire che il semplice fatto che i prestatori intraprendano tali attività non comporta il venir meno delle esenzioni dalla responsabilità stabilite nel presente regolamento, purché tali attività siano svolte in buona fede e in modo diligente. La condizione di agire in buona fede e in modo diligente dovrebbe includere l’agire in modo obiettivo, non discriminatorio e proporzionato, tenendo debitamente conto dei diritti e degli interessi legittimi di tutte le parti coinvolte e fornendo le necessarie garanzie contro la rimozione ingiustificata di contenuti legali, conformemente agli obiettivi e alle prescrizioni del presente regolamento>>.

<< (28) … A tale riguardo è opportuno ricordare che anche i prestatori di servizi che stabiliscono e agevolano l’architettura logica di base e il corretto funzionamento di internet, comprese le funzioni tecniche ausiliarie, possono beneficiare delle esenzioni dalla responsabilità stabilite nel presente regolamento, nella misura in cui i loro servizi si qualificano come semplice trasporto, memorizzazione temporanea o memorizzazione di informazioni. Tali servizi comprendono, a seconda dei casi, reti locali senza fili, servizi di sistema dei nomi di dominio (domain name system — DNS), registri dei nomi di dominio di primo livello, registrar, autorità di certificazione che rilasciano certificati digitali, reti private virtuali, motori di ricerca online, servizi di infrastrutture cloud o reti per la diffusione di contenuti che abilitano, localizzano o migliorano le funzioni di altri prestatori di servizi intermediari. Analogamente, i servizi utilizzati per le comunicazioni e i mezzi tecnici attraverso i quali vengono forniti hanno subito una notevole evoluzione, dando luogo a servizi online come il Voice over IP, i servizi di messaggistica e i servizi di posta elettronica basati sul web, in cui la comunicazione avviene tramite un servizio di accesso a internet. Anche tali servizi possono beneficiare delle esenzioni dalla responsabilità, nella misura in cui si qualificano come servizi di semplice trasporto, memorizzazione temporanea o memorizzazione di informazioni>>.

Utili indicazioni classificatorie, infine, nel § 29 : <<I servizi intermediari abbracciano una vasta gamma di attività economiche che si svolgono online e che evolvono costantemente per consentire una trasmissione di informazioni rapida, sicura e protetta nonché per garantire la comodità di tutti i partecipanti all’ecosistema online. A titolo di esempio, i servizi intermediari di semplice trasporto includono categorie generiche di servizi quali i punti di interscambio internet, i punti di accesso senza fili, le reti private virtuali, i risolutori e servizi di DNS, i registri dei nomi di dominio di primo livello, i registrar, le autorità di certificazione che rilasciano certificati digitali, il Voice over IP e altri servizi di comunicazione interpersonale, mentre esempi generici di servizi intermediari di memorizzazione temporanea includono la sola fornitura di reti per la diffusione di contenuti, proxy inversi o proxy di adattamento dei contenuti. Tali servizi sono fondamentali per garantire una trasmissione fluida ed efficiente delle informazioni fornite su internet. Esempi di «servizi di memorizzazione di informazioni» (hosting) includono categorie di servizi quali nuvola informatica, memorizzazione di informazioni di siti web, servizi di referenziazione a pagamento o servizi che consentono la condivisione di informazioni e contenuti online, compresa la condivisione e memorizzazione di file. I servizi intermediari possono essere prestati isolatamente, nel quadro di un altro tipo di servizio intermediario o simultaneamente ad altri servizi intermediari. I fattori che definiscono un servizio specifico come un servizio semplice trasporto, di memorizzazione temporanea o di memorizzazione di informazioni dipendono unicamente dalle funzionalità tecniche, che potrebbero evolvere nel tempo, e dovrebbero essere valutati caso per caso.>>

Resposting di fotografie e aggiunta di commento asseritamente ingiurioso è coperto da safe harbour ex § 230 CDA?

Dice di si l’appello calforniano 1st appellate district – division one, 15 dicembre 2022, A165836, A165841, A.H e altri c. Labana.

A seguito della morte di George Floyd e del reperimento della foto su internet di alcuni alunni (della stessa scuola del figlio) col volto dipinto di nero (con significato razzialmnente derisorio), una mamma di colore organizza con altra mamma una marcia di protesta.

Crea allo scopo un “evento Facebook” che include la foto medesima (senza nomi; ma erano stati da altri identificati). Vi aggiunge il commento “This is a protest to [sic] the outrageous behavior that current and former students from SFHS did–A George Floyd [I]nstagram account making fun of his death, the fact that he could not breath [sic] and kids participating in black face and thinking that this is all a joke.

Does the SFHS administration think this is a joke? Please join us at the entrance of the school off of Miramonte St. and make sure this administration knows that this type of behavior will NOT be tolerated.

Please remember to practice social distancing, wear a mask and bring a sign if you would like! Feel free to add people to this list”.

Gli alunni rappresentati nella foto agiscono per difamazione anche verso questa mamma .

Il giudice di primo e secondo grado però confermano che opera il § 230 CDA come safe harbour (come internet service user, direi , non provider) dato che era stato accertato che la mamma no era autrice della foto stessa, trattandosi solo di reposting (condivisione).

(notizia e link alla sentenza dal blog del prof. Eric Goldman)

Safe harbour ex § 230 CDA per piattaforma che verifica malamente l’identità dell’utente, poi autore dell’illecito?

Dice di si la corte del District of Colorado, Case 1:22-cv-00899-MEH , del 5 dicembre 2022, Roland ed altri c. Letgo+2.

Si tratta di azione contro una piattaforma di scambi di annunci di compravendita (Letgo), basata sul fatto che  la stessa non aveva controllato l’identità di un venditore: il quale aveva postato un annuncio fasullo per poi rapinare il potenziale acquirente (incontro poi conclusosi tragicamente per quet’ultimo).

Circa il § 230.c.1 del  CDA, la piattaforma è di certo internet  provider.

Che sia trattata come publisher o speaker è altretanto certo, anche se la corte si dilunga un pò di più.

Il punto difficile è se fosse o meno un <content privider>, dato che in linea di principio l’annuncio era del suo utente.

Per la corte la piattaforma era in parte anche contentt priovider.

Bisogna allora capire il fatto: centrale è l’attività di verifica dell’utente/venditore.

< Letgo provides a website and mobile application allowing users to “buy from, sell to and
chat with others locally.” Amended Complaint (“Am. Compl.”) at ¶ 21. It advertises a “verified
user” feature. Id. ¶ 23. On its website, Letgo explains that it utilizes “machine learning” to identify
and block inappropriate content (such as stolen merchandise) and continues to work closely with
local law enforcement to ensure the “trust and safety of the tens of millions of people who use
Letgo.”
Id. OfferUp merged with Letgo on or around August 31, 2020. Id. ¶ 26.
To access its “marketplace,” Letgo requires that its consumers create a Letgo account.
Id.
¶ 27. Each new account must provide a name (the truthfulness of which Letgo does not verify) and
an active email address.
Id. Once a new Letgo account is created, the user is given an individual
“user profile.”
Id. at ¶ 28. Each new user is then given an opportunity to and is encouraged to
“verify” their “user profile.”
Id. Once a user is “verified,” the term “VERIFIED WITH” appears
on their profile (in this case, Brown verified with a functioning email address).
Id. ¶¶ 29-30.1 Letgo
performs no background check or other verification process.
Id. Once created, a Letgo user’s
account profile is viewable and accessible to any other Letgo user.
Id. ¶ 31. Letgo buyers and
sellers are then encouraged to connect with other users solely through Letgo’s app.
Id. Letgo’s
advertising and marketing policies prohibit selling stolen merchandise.
Id. 32. Furthermore, the
app promotes its “anti-fraud technology” to help detect signs of possible scams based on keyword
usage.
Id. >

ciò è dufficiente per ritenerlo cotnent priovioder e negarre alla piattaforma il safe harour.

< The singular item of information relevant here is the “verified” designation, and factually,
it appears to be a product of input from both Letgo and its users. It seems from the record that
simply providing a telephone number to Letgo is not sufficient to earn the “verified” designation.
At oral argument, Defendants acknowledged that when someone wants to create an account, he
must provide, in this case, a functioning telephone number, whereupon Letgo sends a
communication to that telephone number (an SMS text) to confirm that it really exists, then informs
users that the person offering something for sale has gone through at least some modicum of
verification. Thus, the argument can be made that Plaintiffs’ claims do not rely solely on thirdparty content.
Defendants say Letgo merely created a forum for users to develop and exchange their own
information, and the “verified” designation, relying solely on the existence of a working email
address or telephone number, did not transform Letgo into a content provider. Mot. at 14. “If [a
website] passively displays content that is created entirely by third parties, then it is only a service
provider with respect to that content. But as to content that it creates itself . . . the website is also
a content provider.”
Roommates.Com, LLC, 521 F.3d at 1162. I do not find in the existing caselaw
any easy answer. (….) In the final analysis under the CDA, I find under Accusearch Inc. that Plaintiffs have
sufficiently pleaded, for a motion under Rule 12(b)(6), that Defendants contributed in part to the
allegedly offending “verified” representation. Therefore, as this stage in the case, Defendants are
not entitled to immunity under the statute. Whether this claim could withstand a motion for
summary judgment, of course, is not before me 
>

Nonostante neghi il safe harbour alla piattaforma, accoglie però le difese di questa rigettando la domanda.

Analoga disposizione non esiste nel diritto UE e ciò anche dopo il Digital Services Act (Reg. UE 2022/2065 del 19 ottobre 2022 relativo a un mercato unico dei servizi digitali e che modifica la direttiva 2000/31/CE (regolamento sui servizi digitali))

(notizia e link alla sentenza dal blog del prof Eric Goldman)

Ancora sul safe harbour ex § 230 CDA: ma questa volta addirittura nella lite Prager University v. Google

Arriva di fronte ad una corte statale la lite Prager University c. Google: Corte di appello dello stato di california, 6th appellate district, 5 diembre 2022, H047714).

Passate decisioni nella stessa lite acquisirono notorietà per essere diventate preecedenti invocati in numerose sentenze successive.

Prager Univ. fa parte del movimento MAGA (Make America Great Again) e pare diffonda disinformazione, che google censura.

La censura però è sia contrattualmente rpevista che non sindacabile dal §230 CDa (e’ il primo aspetto quello più interessante).

Solo due passaggi significativi riporto:

<<Prager’s contention that defendants are themselves an information content provider—in that they developed algorithms used in determining whether to restrict access to Prager’s videos—does nothing to defeat section 230 immunity. Prager pleads no facts from which defendants’ use of algorithms would render them providers of information content. What Prager alleges is the use of “an automated filtering algorithm that examines certain ‘signals’ like the video’s metadata, title, and the language used in the video. The algorithm looks for certain ‘signals’ to determine if rules or criteria are violated so as to warrant segregation in Restricted Mode.” To the extent that an automated filtering algorithm is itself information, defendants of course created it; what is also apparent from Prager’s pleaded facts, however, is that defendants have not “provided [it] through the Internet or any other interactive computer service” within the meaning of section 230(f)(3), to Prager or anyone else…

Prager cites no authority for the proposition that algorithmic restriction of user content—squarely within the letter and spirit of section 230’s promotion of content moderation—should be subject to liability from which the algorithmic promotion of content inciting violence has been held immune…

Prager’s claims turn not on the creation of algorithms, but on the defendants’ curation of Prager’s information content irrespective of the means employed: it is not the algorithm but Prager’s content which defendants publish (or depublish). To the extent Prager’s claims principally rest on allegations that defendants violated a duty under state law to exercise their editorial control in a particular manner, defendants are immune under section 230 from the claims Prager brings in this suit>>.

E poi:

<<The Murphy court, and others, have held that the CDA foreclosed liability where plaintiffs have identified no enforceable promise allegedly breached…Prager’s contractual theories are barred because they are irreconcilable with the express terms of the integrated agreements….

the written contracts governing Prager’s relationship with defendants—limited to YouTube’s Terms of Service (YouTube TOS) and Google LLC’s AdSense Terms of Service (AdSense TOS), which the trial court judicially noticed without objection— contain no provision purporting to constrain defendants’ conduct as publishers…

Though consistent with Prager’s assertion that YouTube makes public-facing representations giving the impression that it voluntarily filters the content on its platform using a discrete set of neutral policies, the Community Guidelines in no way purport to bind defendants to publish any given video, or to remove a video only for violation of those guidelines….

As with the Community Guidelines, Prager conflates user guidelines with provider duties. Prager does not explain how defendants’ illustration in the guidelines of unsuitable content that “will result in a ‘limited or no ads’ monetization state” confers on users a contractual right that all other user content be monetized. At most, the Advertiser-friendly content guidelines permit users to “request human review of [monetization] decisions made by [defendants’] automated systems.” Thus, neither the Community Guidelines nor the Advertiser-friendly guidelines conflict with or limit defendants’ express reservation of rights….

the CDA may permit a state law claim concerning publishing activity based on a specific contractual promise, section 230 notwithstanding; this does not mean that the CDA requires an express contractual reservation of publishing discretion as condition precedent to section 230 immunity from state law claims>>

(notizia della sentenza e link alla stessa dal blog del prof. Eric Goldman)

Il reclamo cautelare milanese nella lite sui servizi DNS di Cloudfare , promossa dalle major titolari di copyright

Torrent Freak dà il link alla molto interessante ordinanza milanese (decisa il 22.09.2022 e dep.  4 novembre 2022, parrebbe) che decide il reclamo cautelare Cloudfare c. Sony-Warner-Universal Music, RG 29411/2022, rel. Tarantola.

Il reclamo di Cloudfare (C.) è rigettato e , parrebbe, a ragione.

Alcuni punti:

  • E’ confermata la giurisdizione italiana ex art. 7.1 sub 2) reg. 1215/2012 (anche  se non è chiaro perchè, dato che la disposizione si applica a chi è domiciliato in uno stato UE e viene convenuto in altro stto ue: ma C. è di diritto usa)
  • il diritto è riscontrato in capo alle major ex art. 99 bis l. aut.
  • le condotte addebitate son sufficientemente individuate. Si tratta del servizio di domain name system (DNS) che risolve i nomi in stringhe IP. Esso si affianca agli ordinari servizi di access provider, servendo spesso per anonimizzare l’accesso . Di fatto è noto a tutti che tramite il dns di C. si riesce ad eludere i  blocchi imposti agli (e attuati dagli) internet access provider.
  • per dare un inibitoria, non serve che l’inibito sia corresponsabile civilmente della vioalzione: basta che sia strumento per l’accesso a server ospitanti materiali illeciti. Gli artt. 14-17 del d. gls. 70 del 2003 sono chiarissimi (norme mai citate dal giudice, però!).

Nè c’è alcun dubbio che che C. sia un internet provider (caching, art. 15 d. lgs. 70/2003).

  • non è chiaro il rapporto tra i siti convenuti in causa e C., che nega ne esistano (assai dubbio: perchè mai dovrebbe interporsi tra i siti stessi e l’utenza? Chi le dà incarico e chi la paga?)
  • venendo confermata la cautela di prima istanza, è confermato che l’inibitoria concerne pure i siti c.d. alias (cioè quelli creati in aggiutna per eludere e che reindirizzano automaticametne le richiesta ai siti originari bloccati)
  • le difficoltà esecutive dell’ordine : è il punto più interessante a livello teorico, anche se richeiderebbe approfondimenti processuali . Per il giudice non contano, dovendosi risolverle ex art. 669 duodecies cpc. : << Non è al riguardo configurabile alcun onere preventivo a carico delle parti ricorrenti, né alcun obbligo in capo all’AG all’atto della pronuncia dell’ordine cautelare, di descrivere le specifiche modalità tecniche di esecuzione dell’ordine, ove – ritenuta la sussistenza dell’attività che è ordinato inibirsi – è la parte cui è rivolto l’ordine inibitorio che potrà rappresentare eventuali difficoltà tecniche nell’ambito dello specifico procedimento ex art. 669 duocecies cpc (peraltro già instaurato, come evincibile dagli atti). >> ,

iL PUNTO è come detto assai stimolante anche se meritevole di approfondimento.  A parte che la natura sostitutiva del reclamo porterebbe alla competenza proprio del giudiuce del reclamo, l’attuaizone avviene sì sotto il controllo del giudice, purchè un minimum sia indicato nel provvedimento. E allora può questo limitarsi a dire “filtra tutte le richeiste di accesso a questo o quel sito”? tocca al convenuto chiedere lumi, dice il giudice. OK, ma se è volonteroso; e se non lo è? Penalità di mora? E come può controllare il vincitore la corretta attuazione?

Il comando cautelare era: <<adottare immediatamente le più opportune misure tecniche al fine di inibire a tutti i destinatari dei propri servizi l’accesso ai servizi denominati “kickasstorrents.to”, “limetorrents.pro” e “ilcorsaronero.pro”, inibendo la risoluzione DNS dei nomi a dominio “kickasstorrents.to”, “limetorrents.pro”, “ilcorsaronero.pro”, sia in quanto tali che preceduti dal prefisso www, nonché inibito alla resistente la risoluzione DNS di qualsiasi nome a dominio (denominato “alias”) – che costituisca una variazione dei predetti DNS di primo, secondo, terzo e quarto livello – attraverso i quali i servizi illeciti attualmente accessibili attraverso i predetti nomi a dominio possano continuare ad essere disponibili, a condizione che i nuovi alias siano soggettivamente e oggettivamente riferiti ai suddetti servizi illeciti>>.

Azione di danno per sospensione di account Twitter è impedita dal’esimente § 230 CDA?

Dice di si la corte del distretto nord della california, 7 novembre 2022, Case 3:22-cv-05415-TSH, Yuksel c. Twitter.

I danni lamentati dalla sospensione:

1. Sold me to a dictator who filed lawsuit against 36,066
dissidents, including me, in 2019 alone.
2. Suspended my account. Did not provide me with a specific
reason nor gave me chance to defend myself against the
unknown charge.
3. Destroyed all the intellectual content I had created in 7 years.
4. Cut my connections from more than 142,000 followers and
prominent contacts I had built and fostered in 7 years.
5. Harmed my public image and reputation since many of my
followers and readers thought I had blocked them
intentionally

Qui l’esenzione ex § 230 CDa si applica pianamente e la corte non manca di fare così.

Inoltre si premura di precisare che, anche non concordando con ciò , le domande (breach of conctract e altro) sarebbero rigettata nel merito lo stesso

(notizia e link alla sentenza dal blog del prof. Eric Goldman)

SAfe harbour ex § 230 CDa per danni da database informativo su privati messo in vendita?

Dice di no l’appello del 4 circuito n. 21-1678, TYRONE HENDERSON, SR e altri c. THE SOURCE FOR PUBLIC DATA, L.P. (dal distretto est della Virginia)

Attività dei convenuti:

<< Public Data’s business is providing third parties with information about individuals.
Plaintiffs allege that it involves four steps.
First, Public Data acquires public records, such as criminal and civil records, voting
records, driving information, and professional licensing. These records come from various
local, state, and federal authorities (and other businesses that have already collected those
records).
Second, Public Data “parses” the collected information and puts it into a proprietary
format. This can include taking steps to “reformat and alter” the raw documents, putting
them “into a layout or presentation [Public Data] believe[s] is more user-friendly.” J.A.
16. For criminal records, Public Data “distill[s]” the data subject’s criminal history into
“glib statements,” “strip[s] out or suppress[es] all identifying information relating to the
charges,” and then “replace[s] this information with [its] own internally created summaries
of the charges, bereft of any detail.” J.A. 30.
Third, Public Data creates a database of all this information which it then
“publishes” on the website PublicData.com. Public Data does not look for or fix
inaccuracies in the database, and the website disclaims any responsibility for inaccurate
information. Public Data also does not respond to requests to correct or remove inaccurate
information from the database.
Fourth, Public Data sells access to the database, “disbursing [the] information . . .
for the purpose of furnishing consumer reports to third parties.” J.A. 19. All things told,
Plaintiffs allege that Public Data sells 50 million consumer searches and reports per year.
Public Data knows that traffic includes some buyers using its data and reports to check
creditworthiness and some performing background checks for employment pURPOSE
>>

La domanda di danno è basata su violazioni di alcune disposizioni del Fair Credit Reporting Act (“FCRA”), anche  ma non    solo di tipo data protection.

L’invocazione del safe harbout è rigettata su due dei tre requisiti di legge.

RAvvisata la qualità di  internet provider, è però negato sia (per alcuni claims)  che venisse trattaato come publisher o speaker sia (per altri claims) che le infomazioni fossero di terzi.

Analisi dettagliata ma forse nell’esito poco condivisibile.

Le informazioni erano pur sempre tutte di terzi, solo che il convenuto le formattava in modalità più fruibili ai propri scopi (magari con qualche omissione …)-

Soprattutto, dir che non erano trattati come puiblisher/speaker è dubbio.

 

(notizia e link alla sentenza dal blog del prof. Eric Goldman)