L’intelligenza artificiale è sbarcata ufficialmente su WhatsApp, Messenger e Instagram, con l’introduzione dei chatbot “Meta AI”, ma l’entusiasmo iniziale si scontra già con i primi dubbi sulla privacy. L’assistente virtuale integrato nelle app di Meta sta gradualmente arrivando anche in Italia, promettendo risposte rapide, suggerimenti e funzionalità smart. Tuttavia, non tutto è oro: l’uso dei messaggi per addestrare l’AI ha sollevato perplessità tra esperti e utenti.
Come funziona l’intelligenza artificiale su WhatsApp
Il nuovo chatbot Meta AI è integrato direttamente nelle app del gruppo Meta, e consente agli utenti di porre domande o chiedere consigli in chat, in modo simile a quanto accade con ChatGPT.
L’interazione può avvenire tramite una chat dedicata o anche nelle conversazioni individuali, dove si possono taggare i comandi con il simbolo @MetaAI per ricevere risposte in tempo reale.
L’obiettivo dichiarato da Meta è rendere la comunicazione più interattiva, informata e personalizzata. Il sistema è basato su Llama 3, un modello linguistico di nuova generazione che punta a migliorare l’efficienza e la pertinenza delle risposte. Tuttavia, mentre il rollout procede, emergono i primi interrogativi su come Meta gestisca i dati personali utilizzati per “addestrare” l’intelligenza artificiale.
Il nodo principale riguarda il trattamento delle conversazioni. Meta ha infatti confermato che parte dei contenuti scambiati con il chatbot può essere usata per migliorare le prestazioni dell’AI, anche se promette che questi dati vengono anonimizzati e utilizzati in modo aggregato. Ma la questione non è così semplice.
Secondo i critici, anche quando i dati sono “anonimizzati”, resta il rischio che informazioni sensibili vengano registrate, archiviate o abbinate a profili esistenti.
Inoltre, nei termini di servizio viene specificato che i contenuti delle conversazioni con Meta AI potrebbero essere usati per “sviluppare e migliorare i prodotti Meta”, un’espressione che lascia spazio a interpretazioni ampie.
AI WhatsApp, le risposta di Meta e le scelte dell’utente
Un altro punto critico è che l’AI può essere coinvolta anche in chat con altre persone, potenzialmente esponendo i dati condivisi da più utenti, non solo da chi ha attivato il chatbot. Questo potrebbe portare a una diffusione non intenzionale di messaggi o dettagli personali, anche all’interno di gruppi.
Meta ha assicurato di aver adottato misure per tutelare la privacy degli utenti e offre strumenti per controllare l’interazione con l’AI. È possibile, ad esempio, consultare e cancellare la cronologia delle interazioni con Meta AI, disattivare l’assistente o impedirgli di comparire nelle chat. Tuttavia, queste opzioni non sono sempre evidenti o intuitive per l’utente medio.
Inoltre, non è ancora chiaro in che misura i messaggi scambiati nelle chat “non AI” possano comunque essere usati da Meta per finalità di addestramento. Alcuni analisti suggeriscono che il rischio sia quello di una raccolta dati estesa, con l’intelligenza artificiale come nuovo strumento per rafforzare il già vasto ecosistema informativo dell’azienda.
L’AI su WhatsApp e Instagram è solo all’inizio del suo percorso, ma i problemi di privacy sono già al centro del dibattito.
Se da un lato l’uso dell’intelligenza artificiale promette di rivoluzionare il modo in cui comunichiamo, dall’altro serve maggiore trasparenza su come vengono gestiti i dati. Per ora, gli utenti più attenti farebbero bene a esplorare le impostazioni disponibili e a usare con cautela il nuovo assistente virtuale.
I punti più importanti.
- Meta AI è arrivata su WhatsApp, Messenger e Instagram, ma solleva dubbi sul trattamento dei dati personali.
- I messaggi scambiati con il chatbot possono essere usati per addestrare l’AI, anche se in forma anonimizzata.
- Gli utenti possono gestire alcune impostazioni, ma restano rischi legati alla diffusione involontaria di dati sensibili.