Quando la tecnica del web scraping diventa illegale?

consulenza legale web scraping

 

Il Garante Privacy ne vieta l’uso per la raccolta di dati personali senza consenso

 

Cosa si intende per web scraping?

Il web scraping (letteralmente “raschiare”) o web data extraction è una tecnica mediante cui dati e informazioni pubblicate su alcuni siti web vengono estratte automaticamente per essere poi riportate su altri siti.
In sostanza, si tratta di uno script legato ad un programma per elaboratore che, come un normale visitatore, accede al sito e, anziché procedere con il “copia” e “incolla” manuale del contenuto, “raschia” automaticamente, con percorsi simili ad un motore di ricerca che indicizza le pagine web, le informazioni che lo interessano. Inserire nelle condizioni contrattuali del sito web il divieto all’uso di tecniche di web scraping, robots, crawler e simili, può senz’altro essere d’aiuto per inibire tale comportamento, tuttavia se la pagina web è accessibile pubblicamente, sfuggire del tutto al “raschiamento” dei dati diventa impossibile. L’uso di web scraping e di crawler o altri strumenti automatizzati per la raccolta di contenuti on-line è una caratteristica propria della rete Internet. Ad esempio, i motori di ricerca usano continuamente “webbot”, “crowler” o “spider” con cui visitano miliardi di pagine web e questo permette di fornire all’utente risultati di ricerca pertinenti e accurati. Altri siti, cosiddetti aggregatori, utilizzano queste tecniche per offrire agli utenti un confronto sui prezzi dei prodotti presenti online, monitorando costantemente siti terzi, con o senza il loro consenso.

QUANDO IL WEB SCRAPING E' ILLEGALE ?

La pratica del web scraping non è di per sé illegale, in realtà essa varca la soglia dell’ illegalità quando viene impiegata per finalità illecite e quando i dati estrapolati vengono utilizzati per altri usi (pubblicazione, scopi di lucro, finalità di controllo, raccolta e trattamento dati personali, sensibili, finanziari, ecc) all’insaputa e senza il consenso del titolare del sito e/o del titolare dei contenuti e delle informazioni presenti su di esso.

Un modo per limitare questa pratica, da utilizzare in particolare per proteggere quei contenuti del sito che si vuole non vengano estrapolati, è quello di creare aree riservate cui si consente di accedere solo previa registrazione, come fanno ad esempio i social network, che creano diversi livelli di accesso ai contenuti (per accedere a profili completi occorre registrarsi, altrimenti l’accesso è autorizzato solo a parte del profilo degli utenti) e inserire comunque nei termini d’uso il divieto all’impiego di tecniche di web scraping.

L’utilizzo di questi strumenti, a volte, vìola i diritti dei titolari dei siti web per trarre profitto dal contenuto che essi forniscono, raccogliendo e utilizzando tali contenuti per altri scopi (siano essi dannosi, vantaggiosi o irrilevanti per il proprietario del sito). Il web scraping può configurare diverse violazioni, come la violazione del diritto d’autore, di diritti di proprietà industriale, violazioni sulla privacy, violazioni di condizioni contrattuali (ad esempio, i termini d’uso del sito), appropriazione indebita e, in certi casi, anche il reato di accesso abusivo ad un sistema informatico o sito web.

Con l’avvento dell’economia basata sul traffico dei “dati” questa pratica si sta diffondendo maggiormente e le informazioni così raccolte vengono impiegate per identificare tendenze, comprendere stili di vita, effettuare indagini statistiche sull’uso di prodotti/servizi e sui nuovi bisogni degli utenti. Al di là delle violazioni commesse a danno dei titolari dei siti che si vedono defraudati del loro contenuto o di questioni che attengono più ad atti di concorrenza sleale, quando queste pratiche vengono impiegate per raccogliere e ripubblicare in rete dati personali di utenti ignari, che hanno consegnati le proprie informazioni ad altri siti, la questione diventa più delicata e si entra nell’ambito della violazione di diritti fondamentali, quali quello alla riservatezza.

Proprio in un caso simile è recentemente intervenuto il Garante Privacy che ha inibito ad una società l’utilizzo dei dati personali, quali nomi, cognomi, email e numeri di telefonia fissa e cellulare appartenenti a circa 12 milioni di utenti che erano stati raccolti tramite la tecnica del web scraping, saccheggiandoli automaticamente e indiscriminatamente ad altri siti web. Con tali dati, la società aveva creato un proprio sito, in cui aveva ripubblicato le informazioni così raccolte in forma di elenco telefonico online, i cui dati venivano utilizzati anche da altre aziende per finalità di telemarketing, senza consenso degli utenti. Il Garante, in questa occasione, ha sottolineato che le società che intendono creare un elenco simile, cartaceo o on line, possono utilizzare esclusivamente il data base unico (dbu), ovvero l’archivio elettronico che raccoglie numeri di telefono e altri dati dei clienti di tutti gli operatori nazionali di telefonia fissa e mobile. In alternativa, devono acquisire il consenso libero, informato, specifico per ogni finalità che si intende perseguire (come la consultazione on line dell’elenco o la “ricerca inversa” delle generalità di un abbonato attraverso il numero di telefono).

COME DIFENDERSI DAL WEB SCRAPING ?

Ad ogni modo, utilizzare nelle condizioni contrattuali del sito il divieto all’uso del contenuto da parte di robot, scraper, crowler, o altri sistemi simili, può consentire di ottenere più facilmente la soddisfazione dei propri diritti nei casi di violazioni dei termini contrattuali, meglio ancora se l’accettazione di tali condizioni e quindi di tale clausola (meglio se messa in vista con tecniche grafiche, es. un grassetto) è manifestata con consenso espresso dell’utente (ad esempio con un tasto di spunta), che risulterà chiaramente e consapevolmente informato dei termini e delle condizioni d’uso del sito.

Un’altra opzione per difendersi da queste pratiche potrebbe essere quella di limitare l’uso del sito a scopi di tipo privato e non commerciale. Nel momento in cui si riuscisse inoltre a dimostrare la violazione delle condizioni contrattuali del sito da parte di un terzo attraverso tecniche di web scraping, di certo si potrebbe ottenere in giudizio un provvedimento inibitorio, se poi si provasse anche che la suddetta violazione ha condotto ad una effettiva diminuzione di traffico sul sito, con conseguente perdita di opportunità, allora potrebbe essere plausibile ottenere altresì il risarcimento del danno. Ciò che risulta difficoltoso, in tali casi, è di certo la quantificazione dei suddetti danni reali, particolarmente interessante sarebbe affrontare un’analisi sulle modalità di determinazione.

Resta il fatto che finchè la porta di un sito resta aperta e il contenuto accessibile a tutti, riuscire a proteggere i contenuti del sito da queste tecniche e ottenere un eventuale risarcimento risulta essere molto complesso, più facile sarebbe se invece gli accessi ai contenuti da proteggere venissero limitati solo ad utenti registrati: un soggetto che supera un accesso limitato senza autorizzazione, eludendo le barriere tecnologiche poste all’ingresso, potrebbe macchiarsi anche del reato di accesso abusivo ad un sistema informatico.

Ad ogni modo, se i dati acquisiti mediante la tecnica del web scraping vengono impiegati per studi statistici, c’è poco da fare, da tali usi non può emergere alcuna responsabilità a carico di chi estrae i dati, diverso è invece quando tali tecniche sono impiegate per fini commerciali o per fini di controllo sociale.

CONCLUSIONI

Ad ogni modo per contenere l’uso di questa pratica può essere utile:

– utilizzare nei termini d’uso una clausola specifica in merito al divieto d’uso di strumenti automatizzati per estrarre dati dal sito;
– utilizzare nei termini d’uso il divieto di utilizzo dei contenuti del sito per fini commerciali;
– in siti con contenuti che si intende proteggere in maggior misura, far accettare con consenso espresso (ad esempio casella di spunta) le condizioni contrattuali;
– utilizzare diversi livelli di accesso al sito, consentendo di accedere ad alcuni contenuti solo a seguito di registrazione dell’utente;
– utilizzare tecnologie di sicurezza che impediscano ai robots di accedere e estrarre il contenuto;
– inserire nelle condizioni contrattuali che i contenuti del sito sono protetti dalle leggi sulla privacy, sul diritto d’autore ed eventualmente della proprietà industriale.

In ogni caso, in base alle funzioni che il sito svolge e ai servizi/prodotti che esso fornisce ad utenti e clienti, rivolgersi a professionisti esperti è il modo più sicuro per impostare le più corrette condizioni contrattuali e identificare le clausole più adatte, implementando aree ad accessi limitati e relative regolamentazioni là dove ciò sia opportuno, scegliere le più idonee soluzioni tecniche restrittive per la sicurezza informatica, al fine di restringere il campo ad azioni di estrazione di contenuti mediante “web scraping”.

 

Annalisa Spedicato – Avvocato Esperto in IP ICT e Privacy

RICHIEDI CONSULENZA

 

Autore Annalisa Spedicato

Avvocato Esperto in IP ICT e Privacy