english version

È attivo il nostro contatto WhatsApp! Scrivici o chiamaci al 333 2022801

Riconoscimento facciale: impiego e pericoli

AI, riconoscimento biometrico

Il riconoscimento facciale è un metodo che consente di identificare l’identità di una persona utilizzando una tecnologia di lettura dei dati biometrici, quindi andando a riconoscere la struttura del viso stesso.
Questa tecnologia è applicata in molti servizi, da quello della tutela della sicurezza civile e dello Stato, ad app scaricabili su device con finalità di intrattenimento.
Infatti, le app di morphing o i filtri utilizzati da Instagram o TikTok, sfruttano intelligenze artificiali che impiegano le sesse tecnologie. Ogni volta che un utente carica una foto del suo viso su qualsiasi app o piattaforma di social media, esiste la possibilità di un uso improprio di quell’immagine, che potrebbe essere utilizzata per migliorare le piattaforme di riconoscimento facciale progettate per la sorveglianza, o potrebbe essere usata in futuro dai governi per rintracciare la tua persona o posizione.

I rischi del riconoscimento facciale

Ormai l’utilizzo di software con riconoscimento facciale e intelligenza artificiale (AI) è diventato sempre più comune; tuttavia, l’uso di tali tecnologie può rappresentare un grave rischio per la privacy delle persone. Il riconoscimento faciale può essere utilizzato per:

  • tracciare la posizione e le attività di un individuo senza il suo consenso. Ad esempio i sistemi di sorveglianza con riconoscimento facciale installati in zone pubbliche potrebbero essere utilizzati per identificare e tracciare le attività di una persona senza che questa lo sappia.
  • Identificare persone, ma se non è stato addestrato correttamente o non ha informazioni sufficienti sulla persona, può identificare erroneamente un individuo come un’altra persona.
  • Raccogliere informazioni personali sensibili. Ad esempio, i dati raccolti possono essere utilizzati per identificare le preferenze sessuali, le convinzioni politiche o religiose o le condizioni mediche di un individuo.
  • Monitorare le persone senza il loro consenso. Ad esempio, se un datore di lavoro utilizza un sistema di sorveglianza con riconoscimento facciale per monitorare i dipendenti, può violare la loro privacy e creare un ambiente lavorativo oppressivo.

In generale, il riconoscimento facciale e l’AI possono rappresentare un grave rischio per la privacy delle persone se non vengono utilizzati con cautela. È importante che i governi e le aziende che utilizzano tali tecnologie garantiscano la trasparenza nell’utilizzo dei dati personali, il rispetto dei diritti delle persone e la protezione della loro privacy. Se ci pensiamo di software di lettura biometrica ci agevolano la vita di tutti giorni garantendoci l’accesso ad app e ad altri sistemi intelligenti, semplicemente inquadrando il nostro volto, senza che noi ci ricordiamo centinaia di password. In alcun Paesi questi software vengono anche utilizzati per pagare nei negozi.

 

Riconoscimento facciale

I rischi dell’utilizzo improprio del riconoscimento facciale

Tra i vari sistemi che utilizzano software di riconoscimento facciale sta spopolano ormai da tempo quello per rintracciare le proprie foto online. App come PimEyes, Public Mirror o Facedetection, sono strumenti che nascono per rispondere ad esigenze specifiche e in linea teorica possono anche essere utili per poter monitorare la propria presenza online, ma potrebbero nascondere anche diversi rischi per la nostra privacy. Servizi come questi potrebbero non assicurare un uso corretto delle informazioni a cui hanno accesso e potrebbero quindi comportare alcuni rischi, quali:

  1. condivisione delle informazioni personali. L’utilizzo di queste app richiede spesso l’accesso alle informazioni personali dell’utente, come nome, cognome, data di nascita e altre informazioni sensibili. Queste informazioni possono essere utilizzate da terze parti per attività fraudolente o pericolose.
  2. Possibilità di furto di identità. L’accesso alle informazioni personali dell’utente tramite queste app può aumentare il rischio di furto di identità.
  3. Diffusione di informazioni sensibili: queste app possono consentire la diffusione involontaria di informazioni personali e sensibili. Ad esempio, se una persona carica una foto che contiene informazioni sulla posizione geografica, la sua privacy potrebbe essere compromessa.
  4. Utilizzo delle immagini per scopi pubblicitari: le foto degli utenti potrebbero essere utilizzate per scopi pubblicitari o di marketing senza il loro consenso.
  5. Violazione della sicurezza informatica: queste app potrebbero anche essere utilizzate da hacker per diffondere malware o altri programmi dannosi, il che può compromettere la sicurezza informatica dell’utente.

Per ridurre i rischi associati all’utilizzo di app che permettono alle persone di cercare le proprie foto online, è importante leggere attentamente le politiche sulla privacy dell’applicazione, limitare le informazioni personali condivise e utilizzare password con un alto livello di scurezza per ogni account online. Inoltre, è importante evitare di condividere informazioni sensibili o fotografie che potrebbero mettere a rischio la propria privacy. Le AI lavorano con il machine learning, quindi ogni volta che interagisci con loro stai fornendo loro nuove informazioni, in sostanza le stai istruendo.

Potrebbe interessarti anche:
Come pubblicare le immagini sui social per proteggere la privacy

Cosa succede in Europa

Le Autorità di controllo e le istituzioni, sia nazionali che sovranazionali si sono allarmate per il largo impiego di queste tecnologie, infatti hanno deciso di imporre paletti e limitazioni. In Europa, sono state adottate diverse misure per limitare l’utilizzo di software con riconoscimento facciale e intelligenza artificiale. La maggior parte di essi è stata presa a livello comunitario, come:

  1. Nel gennaio 2020, la Commissione europea ha proposto una moratoria di cinque anni sull’utilizzo di tecnologie di riconoscimento facciale nei luoghi pubblici. Questa proposta è stata accolta positivamente da alcuni paesi europei, come la Francia, che ha sospeso l’utilizzo del riconoscimento facciale nelle scuole per un periodo di tempo.
  2. Nell’ottobre 2021 il Parlamento Europeo ha preso la decisione di vietare l’uso dei sistemi di riconoscimento facciale negli spazi pubblici, al fine di tutelare il rispetto della privacy, della dignità umana ed evitare pratiche discriminatorie. Il test cita:

“il divieto di qualsiasi trattamento di dati biometrici, comprese le immagini facciali, utilizzato dalle forze dell’ordine, che possa portare a una sorveglianza di massa negli spazi pubblici”

  1. GDPR e riconoscimento facciale: In Europa, la protezione dei dati personali è regolata secondo disposizioni specifiche. Il Regolamento generale sulla protezione dei dati (GDPR) dell’UE stabilisce norme rigorose sulla raccolta, l’elaborazione e la conservazione dei dati personali anche quelli raccolti con l’uso di tecnologie di intelligenza artificiale. Il regolamento prevede nell’art. 9 del GDPR il divieto di trattamento dei dati raccolti con lettura biometria, salvo le eccezioni espressamente previste dalla norma.
  2. L’UE non resta ferma davanti all’avanzate delle tecnologie che portano con sé rischi per i cittadini e promuove e finanza studi e ricerche sulle implicazioni delle tecnologie di intelligenza artificiale.

Ogni Paese è libero di aggiungere restrizioni e provvedimenti ad hoc, l’Italia ha vietato il riconoscimento facciale nei luoghi pubblici, per tutto il 2023. Nel testo della manovra si legge

l’installazione e l’utilizzazione di impianti di videosorveglianza con sistemi di riconoscimento facciale operanti attraverso l’uso dei dati biometrici di cui all’articolo 4, numero 14), del citato regolamento (UE) 2016/679 in luoghi pubblici o aperti al pubblico, da parte delle autorità pubbliche o di soggetti privati, sono sospese fino all’entrata in vigore di una disciplina legislativa della materia e comunque non oltre il 31 dicembre 2023». «Salvo che il fatto costituisca reato, si applicano le sanzioni amministrative pecuniarie stabilite dall’articolo 166, comma 1, del codice di cui al decreto legislativo 30 giugno 2003, n. 196, e dall’articolo 42, comma 1, del decreto legislativo 18 maggio 2018, n. 51, in base al rispettivo ambito di applicazione

Anche la Germania ha deciso di prendere provvedimenti, qui hanno adottato regolamenti che prevedono la responsabilità civile per i danni causati dall’uso di tecnologie di intelligenza artificiale, al fine di incentivare le imprese ad attivare pratiche più sicure e responsabili.

 

Conclusioni

L’Europa sta adottando una serie di misure volte a limitare l’utilizzo di software con riconoscimento facciale e intelligenza artificiale, al fine di proteggere la privacy e i diritti umani. Tuttavia, il dibattito sull’uso di queste tecnologie rimane aperto, e sarà necessario continuare a valutare gli impatti sociali ed etici dell’implementazione di queste tecnologie. Queste manovre anticipano la definizione e l’introduzione del Ai act, una proposta normativa di regolamentazione dell’Unione Europea, che mira a creare un insieme di norme per l’uso dell’intelligenza artificiale (AI) nell’UE. L’obiettivo principale è garantire la sicurezza e la tutela dei diritti dei cittadini europei nell’ambito dell’uso dell’AI. L’AI Act è stato presentato dalla Commissione europea nel 2021 e attualmente si trova in fase di discussione e di revisione da parte del Parlamento europeo e dei singoli Stati membri dell’UE. La sua approvazione definitiva richiederà ancora alcuni anni e potrebbe subire modifiche durante il processo legislativo.

Per controllare la tua situazione online, sia per quello che riguarda il tuo nome che per la tua immagine, pensa di rivolgerti a specialisti, che possono offrirti un servizio adeguato tutelando la tua Privacy.

Puoi contattare Tutela Digitale scrivendo al numero di WhatsApp 333 2022801, scrivendoci una mail all’indirizzo: info@tuteladigitale.it o compilando il form direttamente dal sito.

Per approfondire

https://www.agendadigitale.eu/
europa.eu
https://www.europarl.europa.eu/thinktank/en/document/EPRS_BRI(2021)698792

Silvia Tugnoli

Silvia

Silvia Tugnoli, libera professionista nel settore del web marketing e della comunicazione, collabora con Tutela Digitale dal 2020

Silvia

Silvia Tugnoli, libera professionista nel settore del web marketing e della comunicazione, collabora con Tutela Digitale dal 2020
Potrebbe interessarti anche
Tutela Digitale | Reputazione online Medici

Reputazione online dei medici: perché è importante e come tenerla sotto controllo

La reputazione online è sacrosanta per i medici. L’80% degli utenti che svolgono ricerche online si interessano anche...
23 Gennaio 2017
Garante privacy e Tutela dei dati personali

Educhiamo i giovani alle minacce online- Il manifesto di Pietrarsa

È nato il Manifesto di Pietrarsa, il quale contiene le linee guida per crescere le nuove generazioni con più...
19 Ottobre 2022
Immuni

App Immuni: certezze e problemi

Moltissime sono le notizie giunte sul fronte dell’App Immuni, scelta dal Governo italiano per il tracciamento dei contagi. Non...
29 Aprile 2020
Tutela Digitale | Diritto all'Oblio| Worldcheck

World Check: il database che sa tutto di te, ma tu nulla di lui!

Nato negli anni 2000 da un’idea del gigante dell’informazione finanziaria Thomson Reuters e ormai utilizzato da quasi la...
6 Ottobre 2017
Tutela Digitale | Vittime errori Giudiziari

Tutela Digitale e Articolo 643 in difesa delle vittime di errori giudiziari

Nuova collaborazione tra Tutela Digitale e l’associazione Articolo 643, il gruppo di avvocati, magistrati, professionisti che dà voce alle centinaia di persone che...
6 Giugno 2017
Pubblicare immagini sui social

Come pubblicare le immagini sui social per proteggere la privacy

Proteggere la Privacy oggi è piuttosto complicato. Soprattutto se parliamo di immagini e video. I dati sensibili che...
8 Giugno 2022