A cura dell'Avv. Manuela Soccol

1. Premessa

Non si contano ormai i procedimenti avviati da Tribunali e Autorità garanti in tutta Europa nei confronti delle grandi società multinazionali che forniscono servizi digitali, al fine di reprimere le pratiche commerciali scorrette poste in essere a danno di consumatori e concorrenti più piccoli. Questo però porta la necessità di una riflessione più approfondita su due aspetti principali. In primo luogo, si rende necessario individuare quali siano le nuove modalità e gli strumenti altamente tecnologici con cui queste pratiche vengono oggi poste in essere. In secondo luogo, occorre valutare quali mezzi esistano per contrastarle e quali potrebbero essere introdotti: dalla modifica delle leggi attualmente vigenti, alla definizione di codici di condotta vincolanti, fino allo sviluppo di strumenti tecnologici che sfruttino le stesse tecniche al fine di tutelare i soggetti in posizione più debole.

2. Il caso più recente: Facebook giudicato dal Consiglio di Stato

Con provvedimento n. 27432 del 29 novembre 2018, l’Autorità Garante della Concorrenza e del Mercato (AGCM) ha sanzionato Facebook Inc. e Facebook Ireland Ltd per aver posto in essere due distinte pratiche commerciali scorrette. Di questo provvedimento si è tornato a parlare di recente a seguito delle sentenze del Consiglio di Stato nn. 2630 e 2631 del 29 marzo 2021, che lo hanno in parte riconfermato. La prima pratica contestata riguardava il fatto che, nella fase di prima registrazione dell'utente sulla piattaforma Facebook (sito web e app), la società non informava in modo chiaro e completo della propria attività di raccolta e utilizzo, a fini commerciali, dei dati dei propri utenti. In questo l’AGCM riconosceva una pratica commerciale ingannevole. La seconda pratica consisteva invece nel fatto che nella piattaforma veniva utilizzato ripetutamente un meccanismo c.d. di opt-out, rispetto alla decisione del consumatore in ordine alla cessione dei propri dati da Facebook a terzi, per lo svolgimento di attività commerciali. Secondo l’AGCM, questa condotta costituiva una pratica commerciale aggressiva. Il Consiglio di Stato, confermando la decisione del TAR Lazio, ha confermato la legittimità dell’accertamento della prima pratica, mentre ha annullato l’accertamento dell’AGCM in merito alla seconda pratica, non riconoscendovi i presupposti.

3. Le pratiche commerciali scorrette

Pare opportuno ricordare che le “pratiche commerciali scorrette” sono oggetto del divieto generale sancito dall’art. 20 del D. Lgs. 6 settembre 2005, n. 206 (Codice del consumo). Per “pratiche commerciali” si intendono tutti i comportamenti tenuti da professionisti che siano oggettivamente “correlati” alla “promozione, vendita o fornitura” di beni o di servizi a consumatori, e posti in essere prima, contestualmente o anche in seguito all’instaurazione dei rapporti contrattuali. Le pratiche commerciali così definite sono considerate illecite e perciò vietate quando ricorrano due condizioni: la “scorrettezza” e l’“idoneità a falsare in modo rilevante il comportamento economico del consumatore”. Mediante una clausola generale, il Codice del consumo definisce “scorrette” (il termine “sleali” deriva invece dalla Direttiva CE 2005/29) le pratiche commerciali “contrarie alla diligenza professionale” e false o idonee a falsare in misura apprezzabile il comportamento economico, in relazione al prodotto, del consumatore medio che raggiungono o al quale sono dirette. Accanto alla clausola generale, sono tuttavia indicate anche due categorie più specifiche e due elenchi di singole pratiche che devono considerarsi sempre scorrette (artt. 23 e 26 del Codice del consumo).

Come si vedrà nei paragrafi seguenti, lo spazio ristretto che residuava per l’applicazione della clausola generale potrebbe in questi tempi riacquistare una certa valenza perché permette di ricomprendere anche le pratiche attuate mediante nuovi strumenti e modalità dell’informazione e della comunicazione, più difficilmente riconducibili ai suddetti elenchi. Le pratiche ingannevoli, la cui sussistenza deve essere comunque valutata caso per caso, sono indicate all’art. 21 del Codice del consumo ed includono pratiche confusorie, la violazione di codici di condotta vincolanti, l’omissione di idonee avvertenze nelle attività di commercializzazione, la possibile minaccia alla sicurezza di bambini ed adolescenti, le omissioni ingannevoli (cui sono equiparati l’occultamento o la presentazione confusa di informazioni rilevanti). L’art. 23 Cod. cons. contiene invece un lungo elenco (c.d. lista nera) delle pratiche commerciali “considerate in ogni caso ingannevoli”. Anche le pratiche commerciali aggressive sono indicate mediante la previsione di una clausola generale (art. 24 Cod. cons.) e di una “lista nera” (art. 26 Cod. cons.). Queste pratiche ricomprendono quelle poste in essere mediante molestie, coercizione, indebito condizionamento, che limitano o sono idonei a limitare considerevolmente la libertà di scelta o di comportamento del consumatore. Nella “lista nera” rientrano, ad esempio, insistenze telefoniche, la creazione di sensazioni di pericolo o costrizione, la strumentalizzazione dei bambini e del “buon cuore” del consumatore. È opportuno, in questa sede, fare altresì un breve richiamo alla disciplina in materia di concorrenza sleale. La contrarietà delle pratiche commerciali scorrette alla “diligenza professionale”, infatti, secondo la tesi prevalente, fa riferimento al concetto di “slealtà” così come è stato elaborato in materia di concorrenza sleale o, se si preferisce, a quello di “correttezza professionale” di cui all’art. 2598, n. 3 c.c. (1). Tuttavia, la disciplina delle pratiche commerciali scorrette riguarda soltanto il rapporto “tra professionisti e consumatori” e così ne restano per forza escluse alcune delle fattispecie considerate scorrette dall’art. 2598, n. 3 c.c. (come, ad esempio, lo storno di dipendenti, il boicottaggio, la sottrazione di notizie riservate ecc.). Altre condotte, invece, potranno essere sanzionate sotto un duplice profilo. D’altra parte, è possibile affermare che tutte le pratiche commerciali scorrette possono essere intese anche come atti di concorrenza sleale nei confronti dei concorrenti dell’autore delle stesse, ai sensi dell’art. 2598 c.c. Da tempo dottrina e giurisprudenza sono infatti concordi nell’affermare che ogni atto che leda l’interesse dei consumatori, con l’effetto di turbare le sue scelte, è anche un atto di concorrenza sleale (2). Per coordinare la tutela dei diversi soggetti coinvolti, preme da ultimo sottolineare come, proprio per non pregiudicare la posizione degli imprenditori concorrenti che, con l’attuazione di nuove direttive europee, avrebbero visto la sostituzione di certe ipotesi prima pacificamente ritenute illecite con le norme sulla pratiche scorrette, la cui illiceità trova un limite nella necessaria idoneità a falsare in modo rilevante le scelte del consumatore, il legislatore ha scelto di mantenere in vita, in parallelo, la previgente legislazione sulla pubblicità ingannevole e comparativa (ora ricondotta al d. lgs. 145/2007). Nella pubblicità ingannevole rientra qualsiasi comunicazione e qualsiasi messaggio rivolti a potenziali consumatori o fruitori di determinati prodotti o servizi, che non corrisponda a verità, a condizione che si tratti di menzogna idonea a ingannare i suoi destinatari.

4. Le pratiche commerciali scorrette delle Big Tech

Come il caso di Facebook, numerose altre “big” del mercato digitale sono state prese di mira per le scarse garanzie che offrono per la tutela dei consumatori. Questo vale, ad esempio, per TikTok, che nel febbraio 2021 è stata denunciata alla Commissione Europea da parte del BEUC (l’organizzazione europea dei consumatori) per la presenza sulla piattaforma di contenuti inappropriati, di clausole vessatorie all’interno dei termini di servizio ed anche per pratiche di marketing scorrette, a danno soprattutto di bambini e adolescenti, nonché per ulteriori pratiche commerciali scorrette legate alla “Virtual Items Policy” e quindi alle policy relative all’acquisto delle “monete virtuali” dell’app (3). Ancora, sono stati ben sei i procedimenti istruttori avviati dall’AGCM nel settembre 2020 nei confronti di Google (per la piattaforma Google Drive), Apple (per il servizio iCloud) e Dropbox (per il servizio omonimo) in merito a presunte pratiche commerciali scorrette e violazioni della normativa consumeristica, nonché per presunte clausole vessatorie incluse nelle condizioni contrattuali riferite a servizi di storage cloud (4). Un’altra rilevante istruttoria dell’AGCM (PS10601) ha riguardato poi WhatsApp, che nel 2016 è stata sanzionata per la pratica commerciale consistente nell’indurre gli utenti ad accettare sia le modifiche apportate ai termini di utilizzo, sia la condivisione con Facebook dei loro dati personali, a fini di profilazione e marketing, che è stata ritenuta “specificatamente aggressiva”, poiché “mediante indebito condizionamento, idonea a limitare considerevolmente la libertà di scelta o di comportamento del consumatore medio, inducendolo, pertanto, ad assumere una decisione di natura commerciale che non avrebbe altrimenti preso”.

5. Pubblicità ingannevole e intelligenza artificiale

Ci si focalizzerà ora, in particolare, sulle pratiche di pubblicità ingannevole, poiché queste si presentano in nuove forme e portano nuovi rischi nel caso dell’offerta di prodotti ad alto contenuto tecnologico, specialmente se incorporanti sistemi di intelligenza artificiale. Come accennato sopra, la pubblicità ingannevole può rappresentare sia un atto di concorrenza sleale sia una pratica commerciale scorretta a danno dei consumatori, e trova la sua specifica disciplina nel d. lgs. 145/2007. Tanto gli studiosi del diritto, quanto gli esperti di marketing hanno già cominciato ad analizzare i benefici e i rischi che potrebbero derivare dall’utilizzo di robot dotati di intelligenza artificiale nella promozione di determinati prodotti e servizi. Alcuni robot hanno infatti elevate capacità persuasive, dinanzi a cui gli utenti si mostrano molto vulnerabili. I robot possono essere programmati per svolgere un certo grado di persuasione o esortazione ma questa, oltre certi limiti, potrebbe portare ad un’effettiva manipolazione degli utenti. I robot potrebbero ad esempio “esortare” le persone a comprarli od utilizzarli, oppure a rivelare loro informazioni sensibili, sfruttando la fiducia riposta in loro. Queste tecniche di “esortazione” possono essere legittime ed eticamente accettabili entro certi limiti, e del resto vengono già attuate in varie forme nel mercato dei prodotti offerti ai consumatori. Bisogna tuttavia delineare la linea sottile che corre tra l’”esortazione”, intesa come l’indirizzare qualcuno in una certa direzione, pur lasciando intatto il suo potere decisionale, ed una manipolazione scorretta, che include tecniche ingannevoli e che comportano una forte pressione sull’individuo (5). È evidente però che se pratiche commerciali “manipolative” vengono poste in essere da un venditore o da una società, possono essere più facilmente disciplinate ed eventualmente sanzionate, mentre è più difficile individuarle e controllarle quando vengono inserite all’interno della programmazione del funzionamento di un robot. Non è escluso che le persone possano provare per i robot sentimenti di simpatia e affetto, o che li vedano come parte della famiglia (si pensi ad un’auto a guida automatica che abbia un nome e una voce, o ad un robot antropomorfo con una divisa da infermiere). Questo può provocare reazioni emotive negli utenti, che potrebbero quindi essere persuasi o manipolati, e portati a fare cose che altrimenti non avrebbero fatto, come l’acquisto di un costoso pacchetto di aggiornamento oppure di un servizio di manutenzione aggiuntivo (6). Oppure si pensi all’ipotesi di un assistente robot che influenzi una persona anziana a comprare una specifica marca di medicinali. Sicuramente alcune di queste tecniche potrebbero rientrare nelle pratiche commerciali ingannevoli o aggressive, in quanto in grado di ridurre la libertà di scelta del consumatore o la sua condotta, portando il consumatore a fare scelte che altrimenti non avrebbe assunto. Si ritiene quindi che proprio l’analisi del rapporto esistente tra la persona e il robot sia uno dei parametri da tenere in considerazione nel valutare la natura illecita ed aggressiva di una pratica commerciale. L’analisi della relazione esistente potrà portare anche a valutazioni in parte diverse rispetto al caso in cui la stessa condotta venga posta in essere da un commesso persona umana o per il tramite della pubblicità tradizionale. Infatti, le persone sono meno abituate a stare attente al tipo di messaggi comunicati da un robot e potrebbero non prestare le necessarie accortezze (7). Si può altresì prospettare che ancora maggiore “cieca” fiducia sarà riposta nei robot da parte di soggetti che per loro natura si trovano in una posizione di debolezza o di bisogno e che sono quindi più facilmente influenzabili, come i bambini, gli anziani e le persone malate. Allo stato, certamente non esiste una regolamentazione idonea ad impedire che soprattutto i consumatori più fragili siano sufficientemente tutelati. Spetterà ai legislatori o alle autorità competenti identificare gli strumenti adatti a garantire un bilanciamento tra le esigenze di protezione ed innovazione e valutare in quale parte l’attuale legislazione consumeristica debba essere adattata.

6. I rischi dell’impiego di strumenti dotati di intelligenza artificiale nel mercato

Emerge chiaramente come attori motivati dal profitto possano approfittare del potere dell’intelligenza artificiale per perseguire interessi economici che, seppure legittimi, possono rivelarsi dannosi per gli individui e la società. Gli abusi sono incentivati dal fatto che molte imprese di Internet – come, per esempio, le maggiori piattaforme che ospitano contenuti generati dagli utenti – operano in mercati a due o più lati: i loro servizi principali vengono offerti a singoli utenti, ma i ricavi provengono dagli inserzionisti, o da chi sia comunque interessato ad influenzare gli utenti (8). Pertanto, le piattaforme non si limitano a raccogliere le informazioni sugli utenti, per esempio per meglio indirizzare pubblicità personalizzate, ma usano ogni mezzo disponibile per trattenere gli utenti stessi, così da esporli a messaggi pubblicitari o ad altri tentativi di persuasione. Ciò conduce ad un’influenza pervasiva sul loro comportamento, a danno non solo dell’autonomia dei singoli ma anche di interessi collettivi. Deve essere tuttavia ricordato che i consumatori hanno un interesse ad una corretta “concorrenza algoritmica”, vale a dire, a non essere soggetti ad abusi nello sfruttamento di posizioni dominanti sul mercato che risultano dal controllo esclusivo di grandi masse di dati e di tecnologie avanzate (9). Questi squilibri riguardano direttamente le imprese concorrenti, ma influiscono negativamente anche sui consumatori: le imprese dominanti possono limitare le loro scelte o imporre condizioni sfavorevoli. Si parlerebbe quindi di condotte riconducibili alla concorrenza sleale, che però al tempo stesso ledono anche i diritti dei consumatori. Anche queste prassi possono risultare ulteriormente accentuate nell’ipotesi di utilizzo di sistemi di intelligenza artificiale. L’intelligenza artificiale può, ad esempio, facilitare pratiche discriminatorie se si pensa ad algoritmi che, in base ad enormi quantità di dati raccolti e alla profilazione, possono mostrare prodotti con prezzi diversi a seconda del tipo di consumatore, oppure che possono far apparire nella ricerca determinati prodotti prima di altri. Uno degli esempi più famosi resta quello dell’agenzia viaggi online “Orbitz Worldwide”, che basandosi sulla considerazione che le persone che utilizzano computer Mac Apple spendono mediamente il 30% in più rispetto agli altri utenti per una notte in hotel, ha iniziato a mostrare offerte di viaggio diverse e spesso più costose a questi utenti (10). Queste pratiche basate sulla “price discrimination”, già di per sé potenzialmente lesive degli interessi dei consumatori, favoriscono poi a loro volta comportamenti collusivi, a danno delle aziende concorrenti. Gli algoritmi “di pricing”, infatti, usano sistemi di monitoraggio che acquisiscono i prezzi applicati dalle imprese concorrenti e sulla base di questi ricalcolano e aggiornano frequentemente i prezzi, permettendo così di offrire costantemente prezzi allineati alle condizioni di mercato. A volte si ha una collusione “esplicita”, quando cioè i vari venditori si accordano sulle caratteristiche dei rispettivi algoritmi di pricing, altre volte invece c’è un autonomo adattamento degli algoritmi di intelligenza artificiale, che sono particolarmente avanzati, più rapidi e più intelligenti. È evidente come questo renda più difficile la distinzione tra condotte collusive illecite e condotte autonome miranti a un lecito adattamento intelligente alle condotte dei concorrenti. Infatti, lo “scambio di volontà”, che è necessario per configurare l’illecito concorrenziale, laddove esista, diventa più difficile da rintracciare. Sorgerà altresì il correlato problema relativo all’attribuzione delle responsabilità che, allo stato, non possono certamente essere attribuite a delle macchine.

7. I benefici dell’introduzione dell’intelligenza artificiale nel mercato

Oltre alla recentissima Proposta di Regolamento sull’intelligenza artificiale (11), è importante ricordare che l’Unione Europea sta lavorando alla creazione sia del Digital Markets Act, sia del Digital Services Act. Il primo avrà come obiettivo specifico quello di garantire un comportamento corretto da parte delle piattaforme online “gatekeeper”, ossia le grandi piattaforme online che presentano tre principali requisiti: hanno una forte posizione economica, un impatto significativo nel mercato interno e sono operative in diversi Stati dell’Unione Europea; hanno una forte posizione come intermediari, e cioè sono in grado di collegare un gran numero di utenti ad un gran numero di imprenditori; hanno (o stanno acquisendo) una posizione consolidata nel mercato, destinata a durare nel tempo. Il Digital Services Act, invece, punta a raccogliere tutte le norme relative agli obblighi e alle responsabilità degli intermediari online. Queste novità porteranno sia nuove opportunità per l’offerta di servizi e prodotti oltrefrontiera, sia un elevato livello di tutela per tutti gli utenti-consumatori. Ad ogni modo, anche qualora la legge riuscisse ad adattarsi alle nuove esigenze derivanti dall’uso sempre maggiore di sistemi di intelligenza artificiale nei diversi settori del mercato, questo potrebbe non essere sufficiente. Le leggi dovranno infatti essere accompagnate da strumenti di “soft law”, come codici di condotta o regolamenti specifici che debbano essere rispettati da progettatori ed utilizzatori di sistemi di intelligenza artificiale. Un’altra possibile risposta potrebbe inoltre venire da sviluppi dell’intelligenza artificiale a vantaggio della società civile, per ribilanciare lo squilibrio di potere che si sta creando nei confronti dei poteri economici e politici. Un possibile, seppur parziale, rimedio si potrebbe infatti individuare stabilendo un parallelismo tra le dinamiche di potere sottese allo sviluppo dell’intelligenza artificiale e quelle relative alla società industriale e alla società dei consumi di massa (12). Nell’era dell’intelligenza artificiale, l’esercizio di un contropotere da parte della società civile presuppone infatti che questa sia in grado di avvalersi dell’intelligenza artificiale (13). Per tutelare la concorrenza, ad esempio, le Autorità indipendenti dovranno sviluppare a loro volta appositi algoritmi di auditing e strumenti dotati di intelligenza artificiale che possano supportare le attività di enforcement. A tutela dei consumatori, si stanno invece sviluppando nuovi sistemi per consentire ai consumatori di coordinare le proprie azioni, oppure metodi per l’estrazione e l’analisi dei dati che possono essere utili alla società civile, ad esempio, per identificare pratiche discriminatorie. L’apprendimento automatico e le tecnologie per l’elaborazione del linguaggio naturale possono essere altresì utilizzati per identificare casi in cui vengano raccolti dati inutili o eccessivi. Infine, tali tecnologie possono essere usate per l’analisi e la validazione del contenuto di documenti testuali, come il sistema Claudette, che va altresì nella direzione della “spiegabilità” dell’intelligenza artificiale, prevedendo l’uso di motivazioni giuridiche, vale a dire l’indicazione delle ragioni per le quali una clausola può essere considerata abusiva (14). Queste e altre simili soluzioni potrebbero rivelarsi effettivamente in grado di ridurre le pratiche sleali e illegali all’interno del mercato e di favorire quindi lo sviluppo di modelli di business giuridicamente leciti e più etici, fornendo a consumatori e a piccole e medie imprese idonei mezzi “per difendersi”.


(1) A. VANZETTI, V. DI CATALDO, Manuale di diritto industriale, Milano, 2012, pag. 138.

(2) A. VANZETTI, V. DI CATALDO, Manuale di diritto industriale, pag. 143.

(3) BEUC PRESS RELEASE, BEUC files complaint against TikTok for multiple EU consumer law breaches, 16 febbraio 2021, reperibile al link: https://www.beuc.eu/publications/beuc-filescomplaint-against-tiktok-multiple-eu-consumer-law-breaches/html.

(4) AGCM, PS11147-PS11149-PS11150, Comunicato stampa 7 settembre 2020, reperibile al link: https://www.agcm.it/media/comunicati-stampa/2020/9/CV194-CV195-CV196-PS11147- PS11149-PS11150.

(5) C. HOLDER, V. KHURANA, F. HARRISON, L. JACOBS, Robotics and law: Key legal and regulatory implications of the robotics age (Part I of II), Computer Law & Security rev 32 (2016) 383–402, pag. 397; F. LAGIOIA, G. SARTOR, Intelligenza artificiale per I diritti dei consumatori e tutela privacy: il Sistema Claudette, 29 gennaio 2021, reperibile al link: https://www.agendadigitale.eu/cultura-digitale/lintelligenza-artificiale-per-i-diritti-deiconsumatori-e-la-tutela-della-privacy-il-sistema-claudette/.

(6) C. HOLDER, V. KHURANA, F. HARRISON, L. JACOBS, Robotics and law, pag. 398.

(7) C. HOLDER, V. KHURANA, F. HARRISON, L. JACOBS, Robotics and law, pag. 398.

(8) F. LAGIOIA, G. SARTOR, Intelligenza artificiale per I diritti dei consumatori e tutela privacy.

(9) F. LAGIOIA, G. SARTOR, Intelligenza artificiale per I diritti dei consumatori e tutela privacy.

(10) M. SIMON, Is Orbitz steering Mac users toward pricier hotels?, 2 luglio 2012, reperibile al link: https://edition.cnn.com/2012/06/26/tech/web/orbitz-mac-users/index.html.

(11) COMMISSIONE EUROPEA, Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union legislative acts, reperibile al link: https://eur-lex.europa.eu/legalcontent/ES/TXT/?uri=COM:2021:206:FIN.

(12) F. LAGIOIA, G. SARTOR, Intelligenza artificiale per I diritti dei consumatori e tutela privacy.

(13) M. LIPPI, G. CONTISSA, F. LAGIOIA ET AL., Consumer protection requires artificial intelligence, Nature Machine Intelligence, 2019, 1(4), 168-9.

(14) G. CONTISSA, K. DOCTER, F. LAGIOIA ET AL., CLAUDETTE meets GDPR: Automating the Evaluation of Privacy Policies using Artificial Intelligence. Study Report for the European Consumer Organisation (BEUC), 2018.

 

Ultima modifica il 16/12/2021

Torna indietro