Al momento stai visualizzando Gli hacker hanno violato il sistema di messaggistica interna di OpenAI lo scorso anno
  • Save

Gli hacker hanno violato il sistema di messaggistica interna di OpenAI lo scorso anno

Un hacker è riuscito a infiltrarsi nel sistema di messaggistica interna di OpenAI l’anno scorso e a impossessarsi di dettagli sulla progettazione dell’intelligenza artificiale dell’azienda, secondo quanto riportato giovedì dal New York Times. L’attacco ha preso di mira un forum online in cui i dipendenti di OpenAI discutevano delle tecnologie e delle funzionalità in arrivo per il popolare chatbot; tuttavia, i sistemi in cui sono memorizzati il codice GPT e i dati degli utenti non sono stati colpiti.

L’azienda ha comunicato queste informazioni ai suoi dipendenti e ai membri del consiglio di amministrazione nell’aprile del 2023, ma ha rifiutato di notificare la violazione al pubblico o all’FBI, sostenendo che non era necessario farlo perché non erano stati rubati dati di utenti o partner. OpenAI non ritiene che l’attacco costituisca una minaccia per la sicurezza nazionale e ritiene che l’aggressore sia un singolo individuo senza legami con potenze straniere.

Secondo il NYT, l’ex dipendente di OpenAI Leopold Aschenbrenner aveva già espresso preoccupazioni sullo stato dell’apparato di sicurezza dell’azienda e aveva avvertito che i suoi sistemi potevano essere accessibili ai servizi di intelligence di avversari come la Cina. Aschenbrenner è stato licenziato dall’azienda, anche se la portavoce di OpenAI, Liz Bourgeois, ha dichiarato al New York Times che il suo licenziamento non è collegato alla nota.

Non è certo la prima volta che OpenAI subisce una simile falla nella sicurezza. Dal suo debutto nel novembre 2022, ChatGPT è stato ripetutamente preso di mira da attori malintenzionati, spesso con conseguenti fughe di dati. Nel febbraio di quest’anno, nomi di utenti e password sono trapelati in un’altra violazione. Nel marzo precedente, OpenAI ha dovuto mettere ChatGPT completamente offline per risolvere un bug che rivelava le informazioni di pagamento degli utenti, tra cui nome e cognome, indirizzo e-mail, indirizzo di pagamento, tipo di carta di credito e le ultime quattro cifre del numero di carta ad altri utenti attivi. Lo scorso dicembre, alcuni ricercatori di sicurezza hanno scoperto che potevano indurre ChatGPT a rivelare frammenti dei suoi dati di formazione semplicemente istruendo il sistema a ripetere all’infinito la parola “poesia”

“ChatGPT non è sicuro. Punto”, ha dichiarato a gennaio il ricercatore di AI Gary Marcus a The Street. “Se digiti qualcosa in un chatbot, è probabilmente più sicuro presumere che (a meno che non garantiscano il contrario), l’azienda di chatbot potrebbe allenarsi su quei dati; quei dati potrebbero trapelare ad altri utenti” Dopo l’attacco, OpenAI ha adottato misure per rafforzare i suoi sistemi di sicurezza, tra cui l’installazione di barriere di sicurezza aggiuntive per prevenire l’accesso non autorizzato e l’uso improprio dei modelli, nonché l’istituzione di un Comitato per la sicurezza e la protezione per affrontare problemi futuri.

Leggi di più su www.digitaltrends.com

Lascia un commento