Cerca e trova immobili

STATI UNITISe il giudice "caccia" ChatGPT dall'aula

31.05.23 - 17:01
La decisione di un giudice federale del Texas: i documenti legali non possono essere stilati con l'aiuto dell'IA
keystone-sda.ch / STF (Richard Drew)
Fonte ats
Se il giudice "caccia" ChatGPT dall'aula
La decisione di un giudice federale del Texas: i documenti legali non possono essere stilati con l'aiuto dell'IA

AUSTIN - Nessun documento legale redatto dall'intelligenza artificiale. È l'aut aut messo da un giudice federale del Texas dopo i casi dell'uso dell'IA in tribunale. L'ultimo è accaduto pochi giorni fa quando un avvocato a New York per costruire una causa si è affidato a ChatGpt che ha fornito sei casi precedenti, tutti risultati completamente inesistenti.

Brantley Starr, giudice federale del Texas - come spiega il sito specializzato techCrunch - sta adottando misure per garantire proprio che non si verifichino in aula casi del genere. Ha aggiunto un requisito secondo cui qualsiasi avvocato che compare nella sua corte deve attestare che «nessuna parte della causa è stata redatta dall'intelligenza artificiale generativa» o, se lo è, che è stata controllata «da un essere umano».

Tutti gli avvocati che compaiono davanti alla Corte devono quindi mettere agli atti un certificato appositamente redatto e dichiarare che qualsiasi eventuale contenuto prodotto dall'IA sia stato controllato accuratamente da una persona in carne e ossa utilizzando i database legali tradizionali o fonti stampa.

Gli errori dell'Intelligenza artificiale sono chiamati in termine tecnico allucinazioni: in pratica i chatbot forniscono risposte che suonano convincenti ma in realtà sono completamente inventate o sbagliate. Un problema importante che ha sta aprendo una riflessione sull'addestramento dei modelli di IA.

Intanto, anche la Commissione Ue chiede ai suoi funzionari di non usare i software di intelligenza artificiale nella redazione «di testi pubblici, in particolare quelli giuridicamente vincolanti», e «per processi critici e urgenti». È quanto si legge in un documento interno inviato ai dipendenti, di cui l'agenzia di stampa italiana ANSA ha preso visione. Le linee guida fanno riferimento esplicito a strumenti di IA come ChatGpt.

«Il personale - viene sottolineato - non deve mai condividere informazioni che non siano già di dominio pubblico, né dati personali, con modelli di IA generativa disponibili online» e «deve valutare criticamente» i risultati prodotti dai software.

Entra nel canale WhatsApp di Ticinonline.
COMMENTI
 
NOTIZIE PIÙ LETTE