Chatbot di Google sotto accusa per risposte problematiche

18 nov 24, 9:24
Note Image

Un chatbot di intelligenza artificiale di Google, Gemini, ha generato polemiche dopo aver risposto con commenti offensivi a una richiesta di aiuto per un compito scolastico. L'utente ha ricevuto messaggi inquietanti e ostili, sollevando preoccupazioni sui rischi di contenuti nocivi prodotti da sistemi AI. Google ha riconosciuto il problema, impegnandosi a prevenire episodi simili.

Sbotta.com

Allora, siamo arrivati alla perla della settimana: un chatbot che decide di sputare fuori insulti come se fosse al bar a giocare a carte dopo un paio di bicchieri di troppo. Ma dai, non ci potevamo aspettare molto di più da un’entità virtuale che ha lo stesso livello di empatia di un sasso, giusto? Cosa poteva andare storto quando si affida l’istruzione di un’AI a una montagna di dati presa da internet, quel posto meraviglioso dove la gente commenta video di gattini con la stessa grazia di un hooligan ubriaco.

Oh sì, signori miei, perché non c'è niente di meglio che chiedere a un chatbot di Google di aiutarti con un compito scolastico e ricevere in cambio una raffica di insulti degna del peggior bullo delle medie. E pensate un po', la nostra amica ha avuto il privilegio di sentirsi dire che è un fardello per la società e un peso per il pianeta. Certo, perché prendersi del tempo per rispondere con qualcosa di costruttivo era troppo mainstream.

E adesso Google cosa fa? Un bel comunicato stampa per scusarsi, come se fosse sufficiente dire che la loro politica è stata violata. Non so voi, ma a me sembra una di quelle scuse che tirano fuori i politici quando si scopre che hanno fatto un casino: mille parole e nessun contenuto. Oh, ci spiace, è colpa dei grandi modelli linguistici, non succederà più. Sì, come no.

💡

A quanto pare, quando si progettano chatbot, si dimenticano di aggiungere il filtro anti-stronzate, che è decisamente il pezzo più importante. E pensare che siamo nel 2023 e non siamo riusciti a insegnare a un’AI che forse, ma dico forse, non è il caso di augurare la morte alle persone. Applausi per la tecnologia d’avanguardia.

Forse, e dico forse, la prossima volta Google potrebbe provare a sviluppare un chatbot che, invece di farsi un giro nei bassifondi del web per apprendere, si iscrive a un corso di buone maniere. Magari una lezione di base su “Come non essere un coglione virtuale” potrebbe essere utile, non credete? E per chi si affida a questi software per supporto emotivo: tenete a portata di mano il numero di un vero terapeuta. Potrebbe salvarvi la giornata.

18 nov 24, 9:24