Il soldato Matthew Livelsberger ha usato l'intelligenza artificiale per l’attacco a Las Vegas?

8 gen 25, 5:58
Note Image

Secondo la polizia, Matthew Livelsberger, il soldato delle forze speciali che si è tolto la vita dopo aver fatto esplodere un Tesla Cybertruck affittato vicino al Trump Towers hotel di Las Vegas. avrebbe utilizzato l'intelligenza artificiale generativa, come ChatGPT, per pianificare l'attacco, cercando informazioni su esplosivi e velocità dei proiettili. L'incidente ha causato il ferimento di sette persone. Livelsberger, che soffriva di PTSD, ha lasciato una nota in cui affermava che l'attacco era un campanello d'allarme per gli Stati Uniti. Nonostante il suo stato mentale, l'utilizzo di ChatGPT solleva preoccupazioni sulla facilità con cui la tecnologia può essere impiegata per scopi distruttivi.

Sbotta.com

Un soldato USA che usa l'intelligenza artificiale per un attacco a Las Vegas? Questa è una di quelle storie che fanno sembrare un film di fantascienza un documentario sulla vita di campagna.

Il nostro eroe, Matthew Livelsberger, Green Beret e aspirante sceneggiatore di catastrofi, ha deciso di trasformare il suo sogno in realtà con l'aiuto di ChatGPT. Pare che non si trattasse di una semplice esplosione, ma di un'opera d'arte concettuale, tipo Banksy ma con più fuochi d'artificio e meno messaggi sociali.

Chi non ha mai chiesto a un chatbot come costruire un ordigno esplosivo durante una pausa caffè? Siamo onesti, il vero crimine qui è che ha affittato una Tesla Cybertruck per farla saltare in aria, senza nemmeno lasciarci la possibilità di ammirare quella discutibile bellezza in acciao satinato.

Ora, invece di farci prendere dal panico perché un'intelligenza artificiale ha aiutato un pazzoide a fare scintille, facciamo un passo indietro e riflettiamo. L'AI è un mostro uscito dalla scatola di Pandora o siamo noi che non sappiamo proprio che farcene se non idee da quattro soldi? Livelsberger non era proprio quel che si dice un testimonial perfetto per la salute mentale, con i suoi discorsi su droni cinesi a propulsione gravitazionale e il delirio sul destino degli Stati Uniti. Che sia lui a sollevare la questione delle armi e della tecnologia, fa venire un certo prurito alla fronte, non vi pare?

E non dimentichiamoci della sua amorevole dedica a Elon Musk e a Trump. Forse il vero piano era quello di distrarci con il caos per farci ingoiare questo boccone amaro.

💡

Lo sapete che in Arizona i fuochi d'artificio sono legali solo 27 giorni all'anno? Quel Livelsberger non era solo un dilettante con la polvere da sparo, sapeva anche programmarsi la pazzia nei giorni giusti. Chissà se ha usato ChatGPT anche per trovare queste preziose informazioni. Magari l'AI potrebbe divertirsi a calcolare le probabilità che una roba del genere accada anche il prossimo anno, giusto per farci stare più tranquilli.

Se mai vi venisse in mente di chiedere a ChatGPT come costruire una bomba, potreste anche chiedergli la ricetta per un bel caffè al cianuro. Oppure, provate a chiedere consigli meno esplosivi, come come gestire il PTSD senza spaccare tutto. Magari, anziché far saltare una Tesla, potreste semplicemente passare il testimone a un terapista. Potrebbe farvi risparmiare in multe e mal di testa.

8 gen 25, 5:58