Big Data e concorrenza all’interno del settore farmaceutico

Dal Transistor alla medicina di precisione

«Our vision for the last 20 years can be summarized in a succinct way. We saw that exponential improvements in computer capabilities would make great software quite valuable. Our response was to build an organization to deliver the best software products. In the next 20 years the improvement in computer power will be outpaced by the exponential improvements in communications networks. The combination of these elements will have a fundamental impact on work, learning and play».

Questo breve incipit – tratto dal comunicato interno a Microsoft – permette di inquadrare da subito la tematica.

Inoltre, offre lo spunto per individuare quale elemento fosse in grado di attuare e completare il rivoluzionario progresso tecnologico, ponendosi come trait d’union delle nuove scoperte ed innovazioni: ovvero Internet, il quale, continua il comunicato, “over the next several years will set the course of our industry for a long time to come.».

Senza che con ciò s’intenda ripercorrere le fasi essenziali dello sviluppo che ha condotto al consolidamento del cd. ecosistema digitale, preme qui cercare di indagare in quale modo la disciplina antitrust possa declinarsi per fare fronte a queste specifiche nuove realtà, in particolare rispetto ai cd. Big Data applicati al settore farmaceutico.

Delle vicende concorrenziali concernenti Microsoft si è scritto molto, perciò “si farà grazia” al lettore di un ulteriore apporto; pare invece potersi dedicare ad un diverso provvedimento, il quale, prima che le digital company fossero state anche solo concepite, ha provocato effetti di grande portata nel settore.

Analisi – considerato l’ambito – di tempi “antichi”, quando, nel 1949, lo US Department of Justice, attraverso la divisione antitrust, avviò un’azione giudiziale nei confronti di AT&T. Questa società deteneva una posizione dominante nel mercato delle (ai tempi solo)-comunicazioni e stava inoltre sviluppando, attraverso la propria controllata Western Electric, un nuovo settore d’attività, ovvero la commercializzazione di prodotti a base transistor, componente essenziale per le apparecchiature elettroniche. L’obiettivo principale dell’azione, come specificato dall’Attorney General Tom Clarck,«(…) is to restore competition in the manufacture and sale of telephone equipment now produced and sold almost exclusively by Western Electric at noncompetitive prices.». (Shaping American Telecommunications: A History of Technology, Policy, and Economics, C. H. Sterling, P. Bernt, M. B. H. Weiss, Routledge, 2006).

La causa si concluse con una transazione che imponeva ad AT&T la separazione di W.E. e, per quanto qui interessa, la concessione in licenza dei propri brevetti ai concorrenti, tra cui quelli maggiormente innovativi riguardanti i dispositivi a semiconduttori. (D. Mowery, N. Rosenberg,Il secolo dell’innovazione: Breve storia della tecnologia americana, 2015). Giocoforza, la successiva evoluzione dei sistemi transistor fu aperta alla concorrenza, dapprima della società Texax Instruments (in particolar modo Jack Kilby con l’invenzione dei circuiti integrati) ed in seguito di un elevato numero di aziende tra cui il (futuro) colosso I.B.M.; l’intervenuto accordo ebbe infatti due principali conseguenze: innanzitutto scisse il settore delle comunicazioni da quello dell’industria tecnologica per computer; in secondo luogo, attraverso l’ingresso in quest’ultimo mercato di numerose imprese e la rapida diffusione inter-aziendale di tecnologie, elevò il gradiente competitivo tra le imprese statunitensi. In altre parole si vennero formando una struttura ed una condotta intensamente competitive le quali rinforzarono una rigorosa selezione ambientale, sulla scorta del modello di distruzione creatrice à la Schumpeter, che costituisce il tratto distintivo di un settore industriale caratterizzato dalla significativa presenza di costi fissi di ricerca e di marketing nonché dall’intensità delle dinamiche innovative e concorrenziali. Si creò, in altre parole, un precipitato concorrenziale caratterizzato da comportamenti del tipo “winner takes it all”, dove implacabilmente le imprese meno efficienti e le soluzioni tecnologiche meno efficaci venivano eliminate dal mercato.

L’azione civile intrapresa nei confronti della compagnia AT&T è uno tra i primi provvedimenti (si veda un accordo simile a quello descritto intercorso tra il Dipartimento di giustizia americano e la società I.B.M.) adottato nel settore che poi evolverà, dietro la spinta propulsiva della rete nel cd. digital market.

Fenomeno questo di incommensurabile portata il cui impatto “disruptive”, sia dal punto di vista economico che sociale, è stato in grado di coinvolgere non solo i settori ad esso attigui, quali i servizi digitali o delle (ora anche tele)-comunicazioni, ma anche i mercati cd. tradizionali (Rapporto OECD).

Tra questi ultimi un settore che è stato particolarmente coinvolto dallo sviluppo tecnologico, è quello farmaceutico.

L’ingegneria biomedica, elevatasi da mera sottocategoria della medicina moderna, ha contribuito a realizzare notevoli innovazioni e progressi nelle cure; tra questi, sicuramente hanno segnato l’evoluzione della ricerca biologica i nuovi macchinari in grado di effettuare il sequenziamento del DNA (Parere del Comitato economico e sociale europeo).

Grazie al sequenziamento genomico è ora dunque accessibile un insieme di informazioni sui geni e sui processi molecolari coinvolti nello sviluppo delle malattie, nella loro proliferazione in un certo ambiente, così come nella resistenza ai farmaci e nello sviluppo di recidive.

I progressi in campo biotecnologico e biomedico hanno, quindi, permesso di generare una vasta mole di informazioni, misurate in petabyte, ovvero un milione di gigabyte.

Appare pertanto evidente che l’evoluzione della ricerca e della tecnica abbiano portato a strette interdipendenze tra scienza e tecnologia (ad esempio si veda la cd. medicina di precisione), capaci di offrire, grazie all’uso di queste moli di dati, i Bigsmart data, terapie più efficaci e minori effetti collaterali. Questi dati, una volta strutturati, puntano a creare una visione coerente di tutti i pazienti nel sistema sanitario, fornendo una serie di informazioni che possono essere tracciate ed analizzate.

Il ruolo chiave nella nuova frontiera della farmaceutica e della ricerca medica in generale impongono dunque una breve riflessione sui BIG DATA.

Data, quando sono BIG?

Da una parte l’esplosione dei social, che ha uniformato l’uso della rete al fine della condivisione di molteplici informazioni; dall’altra l’evoluzione della tecnologia cloud che, connessa a reti sempre più potenti, è ora in grado di trasmettere vaste moli di dati; infine, le modalità di trasmissione dei dati: “data is everywhere”, ovvero lo sviluppo delle tecnologie mobile ha reso sempre più flessibile e diffusa la circolazione dei dati. Sviluppi che unitamente a molti altri (vedi, ex multis, l’Internet of Things) hannoreso esponenziale l’enorme crescita della produzione dei dati. Origine e qualità dei dati che appartengono alle realtà più disparate, sociale, storica, fotografica, commerciale; i dati possono essere creati da persone (attraverso, per esempio, l’utilizzo delle app. dello smartphone) o generati da macchine/sensori, spesso sotto forma di “sottoprodotto”. Alcuni esempi sono i dati geospaziali, statistici, meteorologici, della ricerca medica, ecc.

Nello specifico rileva la “grandezza” di questo tipo di dati. Ovvero, una risorsa è tanto più rilevante quanto maggiore è il numero di collegamenti entranti da altre risorse e di visite ricevute, e quanto più queste ultime sono a loro volta richiamate da ulteriori risorse. Più elevato è il numero di descrizioni più verosimile sarà anche il collegamento relativo con altri dati. Si tratta di quel concetto meglio noto come saggezza della folla (wisdom of the crowd), un particolaremeccanismo di ordinamento distribuito tra la totalità degli utenti di internet e dalla loro frequenza di accesso ai vari siti. L’insieme di tutti i collegamenti che rimandano da una risorsa all’altra creano la rete che copre tutto il web. Su questo meccanismo di rimandi si concentrano i motori di ricerca che, muovendosi tra i diversi collegamenti o hyperlink, classificano tutta l’informazione ricercabile ordinandola secondo un criterio di autorevolezza delle fonti, la quale si concentra contemporaneamente sia sul numero di collegamenti entranti, sia sul numero visite ricevute.

Si tratta tuttavia di un’attività che permette di cercare, quindi, una cd. “search engine”. Qui sta il punto. Affinché sia possibile cogliere la prospettiva dei Big Data applicata ad Internet bisogna innanzitutto concentrarsi sulla differenza che esiste tra “cercare” e “trovare” e sul costo che è immanente al passaggio dall’una azione all’altra.

Nel passaggio ad una ricerca con conseguente scelta (o non-scelta, nel caso in cui i risultati siano reputati insoddisfacenti dall’utente), ad un risultato preciso, cioè ad un “trovare” immediato, servono dati che siano, per l’appunto, “Big”.

Dunque gli algoritmi, con le diverse tecniche del più raffinato “find engine”, possono creare collegamenti più solidi ed accurati offrendo all’utente migliori soluzioni.

E non solo, offrendo risposte contro-intuitive e soluzioni innovative spostano anche il “costo” necessario a mettere in relazione dati diversi. Costo che è pertanto raffigurabile quale curva ad incrementi marginali decrescenti prodotta dal rapporto tra la capacità computazionale di calcolo delle relazioni tra dati e la quantità di attributi che descrivono il singolo dato. Computer molto potenti che analizzano e processano dati molto grandi riducono sensibilmente il costo della ricerca, così cambiando il paradigma dal “cercare” al “trovare”.

Riassumendo: con il termine Big Data si fa riferimento a grandi quantità di dati di tipo diverso, prodotti a grande velocità da numerosi tipi di fonti, le quali non sono altro che insiemi di diversi dati.

L’aspetto innovativo, consiste in ciò: la tradizionale attività di “ricercare” una o più informazioni in rete, si è trasformata in quella che sfrutta la rete stessa e le informazioni da essa generata per trovare nuove informazioni, sconosciute all’utente che interroga; si incrociano tra loro i dati disponibili secondo algoritmi finalizzati a trarre dati da dati, informazioni da informazioni (Giuseppe D’Acquisto, Maurizio Naldi, Big Data e privacy by design, Torino, 2017). È ovvio che i criteri tassonomici non possano che risentire dell’oggetto da classificare (F. Di Porto, La rivoluzione Big Data. Un’introduzione, in F. di Porto (a cura di), Big Data e concorrenza, CM, vol. 23/2016).

A tal fine si sono raffinati sistemi di calcolo sempre più precisi, che, supportati da possibilità di acquisizione, conservazione e di trattamento sempre più economiche e veloci, hanno creato il fenomeno dei Big Data. Tra questi il più innovativo è certamente il cognitive computing,ovvero la tecnica che, connettendo le scienze cognitive e l’informatica con l’obiettivo di simulare processi di pensiero umani attraverso modelli computerizzati, permette al computer di imitare il funzionamento del cervello umano.

Se dunque fino a pochi anni fa le informazioni generate dalle esplorazioni in rete di ogni utente che utilizzava servizi online avevano scopi e possibilità di sfruttamento alquanto limitate, con i sistemi di data analytics questa vasta mole di informazioni (dataset), provenienti da molteplici fonti, si è aperta agli usi più disparati.In altre parole, quando specifici computer con elevate capacità di calcolo, in grado di sfruttare algoritmi di auto-apprendimento (machine learning) sono riusciti a gestire ed elaborare in tempo reale, per molteplici fini, una quantità di dati elevatissima raccolti in dataset ad elevata variabilità, si sono dunque originati i Big Data.

Si è soliti ricondurre i Big Data ad una struttura qualificata da quattro macro-caratteristiche: volume, velocità, varietà, veridicità (vedi Lycett, European Journal of Information Systems, 2013; Gandomi e Haider, International Journal of Information Management, 2013).

A queste si è recentemente aggiunto anche il valore: i Data, in particolare quando sono Big, costituiscono oggi un importante asset sia per le imprese, che possono sfruttarli al fine di migliorare i propri prodotti o servizi, sia per i governi che ne fanno uso per rendere più efficiente l’erogazione dei servizi pubblici e migliorare le proprie politiche socio-economiche.

Seppur il modello europeo sconti un grave ritardo nel settore, l’orientamento della Commissione appare chiaramente proiettato a sostenere, nonché accelerare la transizione verso una data-driven economy europea (EC, 2014).

L’importanza che stanno assumendo nell’economia digitale le piattaforme online da una parte, i data ivi generati dall’altra,è unanimemente riconosciuta. La Comunicazione del 25 maggio 2016 ne dà atto sostenendo non solo che le piattaforme onlinesvolgono un ruolo di spicco nella creazione di valore digitale a sostegno della crescita economica futura nell’UE, ma aggiunge che esse rivestono una grande importanza per il funzionamento efficace del mercato unico digitale. Le piattaforme online, favorendo un aumento dell’efficienza e agendo quale catalizzatore per l’innovazione, hanno apportato una serie di vantaggi importanti all’economia digitale e alla società al punto da poter candidarsi a «nuove forme di partecipazione o di esercizio di attività economiche basate sulla raccolta, sul trattamento e sulla modifica di grandi quantità di dati».

Le stime sulla crescita del mercato mondiale della tecnologia dei Big Data e dei servizi correlati, calcolate intorno ai 17 miliardi di USD nel 2015 e con un tasso di crescita annuo medio del 40%, (ossia circa sette volte superiore a quello del mercato complessivo delle tecnologie dell’informazione e della comunicazione (TIC)), non lasciano adito al dubbio.

Tuttavia si è sottolineato da più parti che a livello comunitario i finanziamenti in ricerca ed innovazione in tale materia siano ancora al di sotto della massa critica e le attività in questo campo siano scarsamente coordinate (comunicazione della Commissione).

Si registrano una carenza di norme, una complessità dell’attuale quadro giuridico ed un accesso insufficiente ai grandi dataset e alle infrastrutture abilitanti, elementi che rischiano di costituire barriere all’ingresso sul mercato delle PMI e che, in definitiva, frenano la concorrenza e l’innovazione.

La soluzione a questo impasse pare potersi scorgere in determinate iniziative “faro” che consentono di rafforzare la competitività e migliorare la qualità dei servizi pubblici e la vita dei cittadini. Tali iniziative, con lo scopo di massimizzare l’impatto dei finanziamenti dell’Unione, individuano alcuni settori economici di importanza strategica, tra cui il settore farmaceutico.

A tal proposito rileva l’auspicio del Commissario Neelie Kroes, ex commissario europeo per l’agenda digitale, che, in occasione del Parere del Comitato economico e sociale europeo sul tema «Promuovere il mercato unico europeo combinando l’ingegneria biomedica con il settore dei servizi medici e di assistenza», ha affermato: «la nostra ambizione condivisa dovrebbe essere quella di garantire che ogni cittadino europeo sia digitale, connesso e in buona salute. E che l’Europa colga l’opportunità e si metta alla guida di questo mercato in crescita ed estremamente innovativo»

Del repentino sviluppo dei data e del loro sfruttamento ne è conscia anche l’Agenzia Italiana per il Farmaco (AIFA), la quale ha evidenziato che i progressi tecnologici e biomedici sono in grado di creare un volume di dati biologici e di salute in costante, continua e rapida crescita, «generando, al contempo, una robusta base di conoscenze che potenzialmente possono migliorare l’assistenza sanitaria»; mediante l’utilizzo dei Big Data si creano «approcci più efficaci e personalizzati per la prevenzione, la diagnosi e il trattamento delle malattie e la possibilità di rendere più efficiente l’erogazione dei servizi di salute», sostenendo così anche l’innovazione e la crescita economica.

Con il fine quindi di garantire il diritto alla salute ed un’assistenza adeguata alla popolazione, non soltanto in termini di cura delle malattie, ma anche di prevenzione, sono stati adottati modelli in linea con l’evoluzione dei bisogni e sono state avviate iniziative a livello transnazionale che integrassero le reti informatiche sanitarie locali, regionali, nazionali e globali.

Ma prima di esaminare quali aspetti dell’utilizzo dei Big Data nel settore farmaceutico potrebbero interessare l’intervento delle autorità antitrust, si ritiene utile ed opportuno illustrare brevemente quali siano le concrete (o possibili) applicazioni.

Sul tema della prevenzione troviamo interessanti iniziative a livello sia locale che europeo.

Il progetto ACGAdjusted Clinical Groups – della Regione Veneto sorge in seguito alla mappatura da parte di un gruppo di data scientist dei cd. Big Data sanitari provenienti dai pazienti veneti – nello specifico, il D.L. 179/2012 n. 221, coordinato con la legge di conversione 17 dicembre 2012, definisce quali: «l’insieme di dati e documenti digitali di tipo sanitario e socio-sanitario generati da eventi clinici presenti e trascorsi, riguardanti l’assistito»– che hanno permesso di evidenziare quali fossero i reali bisogni sanitari della popolazione all’interno di un determinato territorio.

La mappatura, suddividendo le diverse tipologie di pazienti (“clusterizzate” in 93 gruppi omogenei per profilo di salute e consumo atteso di risorse assistenziali) presenti nelle differenti zone di una stessa regione, ha permesso di adeguare le risposte sanitarie alle reali esigenze di salute.Grazie a questa soluzione, sviluppata in collaborazione con la Johns Hopkins University, la Regione Veneto, è oggi in grado oltre che di misurare i bisogni di salute della popolazione e migliorare la qualità delle cure, di costruire modelli predittivi del consumo di risorse, di valutare le performance delle Aziende Ulss (Unità Locale Socio Sanitaria) e, infine, di evitare gli sprechi e favorire un’equa distribuzione delle risorse disponibili.

A questo proposito, un recente studio (McKinsey) ha evidenziato che l’uso dei Big Data sanitari consentirebbe ai sistemi sanitari di raggiungere maggiori livelli di efficienza: «If US healthcare were to use big data creatively and effectively to drive efficiency and quality, the sector could create more than $300 billion in value every year. Two-thirds of that would be in the form of reducing US healthcare expenditure by about 8 percent.».

Sul piano europeo la rete di dati per la comunità della ricerca e dell’istruzione chiamata Geant costituisce un ulteriore progetto nel campo della prevenzione. Di grande interesse appare anche la cd. epidemiologia digitale, che promette, attraverso l’utilizzo di dati globali in tempo reale, di rilevare tempestivamente il focolaio di una malattia (il caso più recente è l’epidemia di Ebola in Africa occidentale del 2014); per una simile iniziativa oltreoceano si vedano “My Data” e “The Blue Button”.

Per quanto attiene invece all’applicazione dei data alla cura delle malattie, il progetto PreCanMed, che, attraverso la creazione di una piattaforma per la medicina anticancro di precisione, permette lo studio dei dettagli molecolari del tumore di ogni singolo paziente, rappresenta sicuramente un modello tra i più innovativi.

Infine, all’interno del progetto Human Technopole, IBM realizzerà il primo Centro di eccellenza europeo di Watson Health. Beneficiando della disponibilità dei dati clinici è stato realizzato un primo prototipo di piattaforma informatica per l’analisi dei dati ed il supporto alle decisioni in ambito medico-ospedaliero.

Privacy…concorrenziale

Affrontate le applicazioni dei Big Data nel settore farmaceutico da una visuale di “real world evidence”, si può passare ora all’analisi delle (inedite?) implicazioni che, dal punto di vista delle norme poste a tutela della concorrenza, possono riscontrarsi in tale ambito.

Come correttamente individuato dall’Autorité de la Concurrence e dal Bundeskartellamt all’interno del report congiuntoCompetition Law and Data, seppur molti servizi offerti dalle piattaforme online siano definiti gratuiti, in realtà il loro utilizzo comporta una certa mercatura tra i servizi in parola e gli utenti: la raccolta di informazioni personali.

Ancora più chiaro sul punto appare il “Preliminary Opinion of the European Data Protection Supervisordel marzo 2014, intitolato “Privacy and competitiveness in the age of big data: The interplay between data protection, competition law and consumer protection in the Digital Economy”, dove si legge:«Not all big data is personal, but for many online offerings which are presented or perceived as being ‘free’, personal information operates as a sort of indispensable currency used to pay for those services. As well as benefits, therefore, these growing markets pose specific risks to consumer welfare and to the rights to privacy and data protection.».

Appare dunque fin da ora rilevante il profilo della raccolta e dello sfruttamento delle informazioni personali degli utenti. Questi, per lo più parti passive in detto scambio di dati, una volta autorizzato il trattamento dei propri dati personali, complice anche una certa difficoltà di comprendere privacy policy i cui profili tecnico/giuridico poco si attagliano all’utente/consumatore medio, risultano spesso inconsapevoli dell’utilizzo e degli sbocchi commerciali a cui i propri dati verranno sottoposti.

Per di più si può aggiungere che, calcolandosi un tempo medio di 244 ore all’anno per la lettura delle privacy policy presenti in ogni sito web esplorato, si costringerebbe ad un grandissimo sforzo anche l’utente più scrupoloso.

Ciò che preoccupa maggiormente sotto l’aspetto della raccolta e dello sfruttamento delle informazioni personali degli utenti è la possibilità di ricavare informazioni sensibili attraverso tecniche di analisi, elaborazione ed interconnessione dei dati.

Si è visto che moderne tecniche di machine learning permettono ora di sviluppare algoritmi e metodologie atte a consentire ai computer di apprendere autonomamente determinate funzioni direttamente dai dati, ovvero senza necessità di espliciti comandi o programmazioni dedicate. Chi sfrutta tali tecniche, re-identificando un individuo attraverso informazioni apparentemente anonime o dati aggregati, può ottenere profilazioni sempre più puntuali ed analitiche: ciò comporterebbe non solo il rischio di nuove forme di restrizioni delle libertà, sia in termini di scelta, sia in termini di privacy policy, bensì possibili restrizioni della concorrenza.

Considerata dunque tale relazione tra i Big Data e la capacità di “profilare” gli utenti di una piattaforma, bisogna innanzitutto chiarire se detta capacità contribuisca ad alimentare il potere di mercato di un’impresa.

Pare ovvio che, sebbene la tutela della privacy non sia inestricabilmente legata all’analisi concorrenziale tout court, la stessa ricopra un ruolo, a tal punto centrale, da poter essere sfruttata in chiave concorrenziale: si veda a titolo esemplificativo il  caso WhatsApp (AGCM, 2017); ad ulteriore riprova si può citare anche l’indagine conoscitiva avviata il 30 maggio 2017, dove, inusualmente, all’AGCM si affiancheranno sia l’Autorità Garante per la protezione dei dati personali che l’Agcom.

Si legge nel comunicato congiunto che: «Le Autorità intendono quindi analizzare se, e al ricorrere di quali condizioni, i big data possano tradursi in barriere all’entrata nei mercati o favorire comportamenti restrittivi della concorrenza tali da ostacolare lo sviluppo e il progresso tecnologico nonché ledere il diritto alla protezione dei dati delle persone coinvolte. (…) L’analisi si concentrerà sull’impatto delle piattaforme e dei relativi algoritmi, sulle dinamiche competitive nei mercati digitali, sulla tutela della privacy e della capacità di scelta dei consumatori e sulla promozione del pluralismo informativo. Ciò anche al fine di verificare gli effetti sull’ecosistema digitale dell’aggregazione di informazioni e dell’accessibilità ai big data ottenuti attraverso forme non negoziate di profilazione dell’utenza».

La Commissione europea e varie Autorità nazionali hanno finora concentrato i propri sforzi sul fenomeno per cui, al fine di avere un accesso generalizzato ai data, esiste un forte incentivo ad acquisire società che dispongano di dataset considerevoli, con l’effetto di aumentare il gradiente di concentrazione del settore.

Tuttavia, se i rischi di foreclosure legati alle concentrazioni di datanel settore digitale sono stati posti maggiormente sotto la lente delle autorità antitrust nell’ambito del controllo delle merger, vero è che possono configurarsi svariate condotte che assumono contorni anticoncorrenziali a seconda dell’apporto prestato all’incremento del potere di mercato.

A tal proposito, le due variabili che si pongono quale centro del concetto di catena del valore dei dati sono, in primo luogo l’eventuale carenza di data; inoltre rileverebbero la loro replicabilità, nonché la rilevanza assegnata alla scala e allo spettro delle relative informazioni.

La disponibilità di data assume quindi una rilevanza concorrenziale: i grandi data set possono rappresentare la fonte di un significativo potere di mercato, ovvero costituirebbero indici inusuali dello stesso.

A tal proposito, laddove sia precluso ai nuovi entranti di accedere alla medesima categoria di data– in termini di volume e varietà – fruibile per le imprese già presenti sul mercato, si assisterebbe ad un aumento delle barriere all’ingresso del mercato.

Se i dati, una volta registrati, possono essere riutilizzati più volte, senza perdita di fedeltà, difficilmente potrebbero rientrare nella definizione di essential facilities. In tal caso rileverebbe la “non rivalità” dei data: come affermato dalla Commissione nel caso No COMP/M.4731 Google/DoubleClick, i Big Data sarebbero suscettibili di raccolte ed elaborazioni illimitatamente ripetibili dal momento che le fonti dei dati sembrerebbero quasi sempre abbondanti e potendo gli stessi essere contemporaneamente oggetto di raccolta da parte di più imprese, con costi relativamente bassi. Tuttavia sono stati recentemente offerti spunti in senso contrario (Rubinfeld, Daniel L. and Gal, Michal S., Access Barriers to Big Data, in corso di pubblicazione su Arizona L. Rev, 2017), secondo cui la “non rivalità” non sarebbe propria dell’intera catena di valore dei Big Data.

Aggiungono gli autori che molteplici barriere all’ingresso, non solo per numero ma anche per tipo (tecnologiche, legali e anche comportamentali), cumulandosi in singole porzioni di questa catena di valore, «has the potential to create a cumulative negative effect on competition». Di conseguenza, suggeriscono che:  «The focus of analysis should therefore not be limited to the data collection stage (unless it is the only relevant activity).». Maggiori dubbi sorgono in relazione a quei pacchetti di dati ottenuti mediante un calcolo computazionale. Qui la complessità della duplicazione dell’algoritmo alla base del calcolo si rispecchierebbe sulla impossibilità di replicare tali dati.

Pertanto, devono essere sottoposti ad ulteriori indagini sia l’assunto secondo cui i big data in mano ai pochi colossi attivi nei mercati digitali non presenterebbero i tratti tipici delle essential facilities (si vedano i casi IMS e Microsoft), sia la definizione di mercato rilevante dei prodotti in analisi.

Partendo dal presupposto dell’ubiquità dei data, “data is everywhere”, alcuni autori hanno contestato l’unicità del mercato rilevante per tutti i Big Data (Tucker, Darren S. and Wellford, Hill B., Big Mistakes Regarding Big Data, American Bar Association, 2014).

Le informazioni raccolte possono essere suddivise a seconda del bisogno che soddisfano, ovverosia esse non sono sempre sostituibili. Per esempio, se osservato dal lato della domanda, un pacchetto di data scambiato tra due aziende potrà dirsi altamente sostituibile a seconda dell’utilizzo che l’acquirente si riserverà di farne. Rivestirebbe pari importanza anche la fonte dalla quale sono tratti tali data, cosicché, dati raccolti o prodotti con differenti metodi potranno ben dirsi sostituibili con conseguente parcellizzazione dei rispettivi mercati rilevanti e con importanti effetti anche nell’analisi del potere di mercato dei vari incumbents.

A tal proposito, nel caso No COMP/M.6314 Telefónica UK/ Vodafone UK/ Everything Everywhere/ JV, sono stati suddivisi i mercati della pubblicità online: «According to Three UK, advertisers and media agencies do not consider mobile push advertising (mobile messaging via SMS and MMS) and the associated subscriber data closely substitutable with other forms of advertising.».

Resta da esaminare quali siano le implicazioni all’interno del settore farmaceutico.

Non può difatti dimenticarsi che, nello specifico, i dati personali in grado di rivelare lo stato di salute delle persone sono di particolare delicatezza e per tale ragione definiti “dati sensibili”. Le norme che ne disciplinano le possibilità di diffusione rispettano criteri ancora più stringenti. Ad essi il Codice sulla protezione dei dati personali attribuisce una tutela rafforzata e stabilisce le regole per il loro trattamento (la raccolta, la registrazione, l’organizzazione, la conservazione ecc.) in ambito sanitario.

Ne consegue che i Big Data nel settore sanitario possono costituire rispettivamente, per la peculiarità delle informazioni che racchiudono e le restrizioni a cui sono soggetti, da una parte assets particolarmente rilevanti per l’azienda farmaceutica che li detiene, dall’altra risultano scarsamente replicabili e condivisibili.

Si aprono così profili complessi sia in ordine alla concorrenza tout court, sia nelle interazioni tra questa disciplina e la privacy.

Sotto il primo profilo, l’avvento dei Big Data genera inevitabilmente un trade-off concorrenziale: se da una parte il possesso e lo sfruttamento delle informazioni possono contribuire ad accrescere il vantaggio competitivo delle imprese utilizzatrici, così da suscitare il timore di possibili restrizioni della concorrenza, dall’altra parte è assunto incontestabile che i Big Data possano migliorare prodotti e servizi, contribuendo in tal modo ad elevare il benessere del consumatore.

Sotto il secondo profilo, per esempio, di fronte al caso in cui i big data siano detenuti da un’impresa in posizione dominante, l’accesso ad essi sia indispensabile ad un concorrente per competere in un mercato, sia tecnicamente o economicamente impossibile replicarli, imporre un relativo obbligo di accesso per aumentare il tasso di concorrenza accrescerebbe certamente la disponibilità dei data sul mercato. Tuttavia, allo stesso tempo, si aumenterebbero i rischi in termini di privacy per i consumatori, esacerbando la possibilità di controllo dell’utente sulla circolazione dei propri dati.

Concludendo, non bisogna dimenticarsi che sussiste un notevole iato tra l’uso di dati per promuovere la salute ed il benessere dei cittadini o per finalità aziendali di profilazione dell’utente. A tali differenze corrispondono importanti implicazioni etiche. Ad esempio, un trattamento di dati che non sarebbe accettabile a scopi commerciali, potrebbe essere permesso per fini di salute pubblica. Inoltre, chi detiene dati commerciali considerati un essential facility potrebbe essere tenuto a renderli disponibili per l’implementazione di programmi che hanno un’importante eco sociale, quali l’epidemiologia digitale o la medicina di precisione, senza che, contestualmente, possa essere obbligato a cederli per scopi di diversa natura.

Come afferma l’Agcom (delibera n. 217/17/cons, sull’avvio di un’indagine conoscitiva sui big data): «L’aggregazione di dati rilevanti per la salute dei cittadini o per altri importanti finalità pubbliche pone il tema della definizione dell’insieme minimo di questa tipologia di dati il cui accesso dovrebbe esser reso disponibile da parte delle diverse piattaforme on line per la definizione e l’applicazione delle relative politiche pubbliche, con la conseguente necessità di conciliare il trade-off tra il valore commerciale dell’informazione e il rispetto di diritti individuali e collettivi fondamentali quali la privacy, la tutela della concorrenza e il diritto alla salute».


facebooktwittergoogle_plusmailfacebooktwittergoogle_plusmail