Sorvegliati speciali. Così i negozi francesi usano IA e telecamere per controllare i clienti

VIDEOSORVEGLIANZA IA

Telecamere intelligenti alle casse e nei negozi analizzano i comportamenti dei clienti per prevenire i furti. Dalla Francia all’Italia, cresce l’uso dell’IA nella sorveglianza commerciale tra dubbi su privacy ed errori

Nei supermercati del futuro, mentre si fa la spesa, non si è più soli. A osservare ogni gesto, sopra le casse automatiche, c’è una telecamera che analizza i movimenti in tempo reale. Dimenticare di scannerizzare un prodotto — per distrazione o meno — può bastare per far scattare un’allerta. Ma non è neppure detto che serva davvero rendersi responsabile di un “atto sospetto” per sembrare tali.

In realtà più che di uno scenario del futuro stiamo parlando di quanto accade già oggi, almeno in Francia, nei negozi Monoprix, dove da alcune settimane sono state installate nuove casse self-service dotate di intelligenza artificiale. Il sistema, sviluppato dalla start-up Mo-Ka, promette di individuare in tempo reale le “mancate scansioni” e segnalare al personale qualsiasi comportamento ritenuto sospetto.

Secondo l’azienda, le immagini sarebbero sfocate e “nessun dato personale viene registrato”. Una rassicurazione che ha contribuito a ottenere il via libera della Commission nationale de l’informatique et des libertés (Cnil), l’autorità francese per la privacy, che nel maggio 2025 ha regolamentato questa tecnologia aprendo la strada alla sua diffusione nei punti vendita.

Clienti sotto osservazione continua

Per il gruppo Casino, proprietario di Monoprix, si tratta ancora di una sperimentazione limitata. L’obiettivo dichiarato non è sanzionare, ma individuare errori di scansione. Ma il risultato è comunque lo stesso: i clienti vengono osservati costantemente durante lo shopping, documenta un’inchiesta del giornale dei consumatori transalpini 60 million de consommateurs.

E questa è solo una parte del fenomeno. Nei negozi francesi sta prendendo piede un sistema ancora più invasivo: la videosorveglianza algoritmica (VSA). Qui non si tratta più solo di controllare la cassa, ma di analizzare i comportamenti all’interno del punto vendita.

sponsor

Le telecamere, integrate con software di intelligenza artificiale, sono addestrate a riconoscere gesti considerati a rischio: un prodotto infilato in borsa, una mano che si muove rapidamente sotto un capo di abbigliamento. Quando il sistema individua un’anomalia, invia un alert in tempo reale agli addetti, che possono intervenire.

Secondo il deputato francese Paul Midy, queste “telecamere aumentate” permetterebbero di ridurre i furti dal 20 al 50%. Un dato che spiega l’interesse crescente della grande distribuzione.

Una tecnologia già diffusa, ma controversa

In realtà, questi sistemi sono già ampiamente utilizzati. Aziende come la francese Veesion hanno installato soluzioni simili in migliaia di negozi, dalle farmacie ai piccoli supermercati, spesso senza un quadro normativo chiaro.

Ed è proprio qui che emergono i problemi. La stessa Cnil ritiene che queste tecnologie non siano pienamente conformi al Regolamento generale sulla protezione dei dati (RGPD). In una lettera inviata nel 2024 a Veesion, l’autorità ha evidenziato, tra le criticità, l’assenza di strumenti efficaci per permettere ai clienti di opporsi al trattamento dei propri dati.

C’è poi il tema dei falsi allarmi. I sistemi non sono infallibili e possono segnalare comportamenti innocui come sospetti. Un problema già emerso durante la sperimentazione della videosorveglianza algoritmica nei Giochi Olimpici di Parigi 2024.

Clienti sospettati per default?

Il rischio, denunciano associazioni e giuristi, è quello di una sorveglianza generalizzata che trasforma ogni cliente in un potenziale sospetto.

«I nostri gesti, il modo in cui camminiamo o ci muoviamo, sono già dati personali», osserva Nathalie Tehio, presidente della Ligue des droits de l’homme ai giornalisti di 60 millions. Anche senza riconoscimento facciale, dunque, il problema della privacy resta aperto.

E soprattutto: come esercitare il diritto di opposizione se ogni movimento viene analizzato? La risposta del legislatore francese è semplice: basterà segnalare la presenza delle telecamere all’ingresso. Chi non è d’accordo, potrà scegliere di non entrare.

Una soluzione che lascia molti dubbi.

Verso una diffusione su larga scala

La Francia si prepara ora a fare un passo ulteriore. Una proposta di legge approvata nel febbraio 2026 autorizza l’uso della videosorveglianza algoritmica nei negozi in via sperimentale fino al 2027. Il testo potrebbe essere presto integrato in una normativa più ampia sulla sicurezza.

Non solo. È prevista anche un’estensione a luoghi pubblici e spazi aperti al pubblico in caso di minacce alla sicurezza, sulla scia delle sperimentazioni avviate durante le Olimpiadi.

Il rischio, denunciano i critici, è una progressiva normalizzazione della sorveglianza algoritmica. «Quando non funziona, si dice che servono più telecamere», osserva ancora Tehio, parlando di una vera e propria “assuefazione” al controllo.

E in Italia? Le prime sperimentazioni già ci sono

In Italia sistemi di questo tipo non sono ancora diffusi su larga scala, ma le prime applicazioni esistono già.

Alcune tecnologie, come quelle sviluppate dalla francese Veesion, sono presenti anche nel nostro paese e consentono di analizzare le immagini delle telecamere per individuare gesti sospetti — ad esempio quando un prodotto viene nascosto in borsa — inviando segnalazioni in tempo reale al personale.

Altri sistemi, ancora in fase sperimentale, integrano i dati video con quelli delle casse, confrontando i prodotti nel carrello con quelli effettivamente scannerizzati per individuare anomalie.

Più diffusi sono invece i sistemi di video-analytics “soft”: conteggio dei clienti, analisi dei flussi, studio dei comportamenti all’interno dei negozi. Tecnologie già utilizzate per ottimizzare layout e personale, ma che rappresentano il primo passo verso forme più avanzate di controllo.

Il vero freno resta la normativa. Il Garante per la privacy ha finora mantenuto una linea molto restrittiva sull’uso dell’intelligenza artificiale per l’analisi dei comportamenti, rendendo difficile un’adozione su larga scala.