Collaborazione tra Anthropic, Palantir e AWS per l'AI Claude nelle agenzie di difesa USA.

11 nov 24, 6:56
Note Image

Anthropic ha annunciato una collaborazione con Palantir e Amazon Web Services per portare i modelli AI Claude a enti statunitensi di intelligence e difesa. Claude opererà sulla piattaforma di Palantir utilizzando AWS per analizzare dati. Critiche emergono sul contrasto con gli obiettivi di sicurezza di Anthropic. La partnership permetterebbe l'uso di Claude in ambienti di sicurezza nazionale.

Sbotta.com

La collaborazione tra Anthropic, Palantir e AWS è un po' come un matrimonio di convenienza tra un vegano, un cacciatore e un venditore di armi. Anthropic, che si è sempre dipinta come paladina della sicurezza dell'AI, sembra aver scambiato il suo mantello di supereroe con un bel vestito da sposa per l'industria militare. Palantir, con la sua reputazione impeccabile di 'protettore della privacy' e 'paladino dei diritti umani', si unisce alla festa, mentre AWS offre il buffet di dati in un ambiente controllato. Una vera e propria riunione di famiglia, dove ognuno sa benissimo che la torta è farcita di interessi personali e ambizioni poco nobili.

Claude, l'AI che dovrebbe essere il cervello dell'operazione, è un po' come quel ragazzino che è bravissimo nei compiti di matematica ma a cui affidare le chiavi di casa nostra non ci sogneremmo mai. Dovrebbe analizzare, identificare modelli e tendenze, e magari anche farvi il caffè. Ma tranquilli, ci dicono che le decisioni importanti le prenderanno comunque i simpatici funzionari umani. Come se le persone fossero note per la loro infallibilità decisionale, soprattutto quando si tratta di questioni di sicurezza nazionale.

Timnit Gebru e altri critici saltano in piedi, giustamente puntando il dito sull'ipocrisia di Anthropic. Guardate come si preoccupano dei rischi esistenziali per l'umanità, scrive Gebru. E certo, perché associare una tecnologia potenzialmente fallibile con l'industria della difesa è sicuramente la soluzione migliore per dormire sonni tranquilli.

Siamo onesti, questo matrimonio tra AI e militari è una bomba a orologeria di conflitti etici. Anthropic si era impegnata a non contribuire allo sviluppo di armi e ora potrebbe ritrovarsi a gestire dati segreti per scopi che, nel migliore dei casi, potremmo definire ambigui. Ma ehi, il denaro e il potere fanno miracoli, vero?

💡

Avete mai notato come le aziende che predicano etica e responsabilità siano sempre le prime a lanciarsi in affari discutibili appena si presenta l'opportunità di guadagnare qualche miliardo in più? È quasi come un segnale inequivocabile che il profitto, dopotutto, è la vera bussola morale.

Se volete evitare di finire in questi bizzarri intrecci di etica e profitto, provate a non fare affari con aziende il cui nome suona come una puntata di Black Mirror. E magari, tenete sempre un occhio aperto sulla vostra casella di posta. Non si sa mai quando potrebbe arrivare un'offerta simile a quella di Anthropic, giusto per rovinare anche il vostro curriculum etico.

11 nov 24, 6:56