L’ex “Padrino dell’AI” di Google ha rilasciato una dichiarazione scioccante sui pericoli dell’AI. Scopri cosa ha detto e come potrebbe influire sul futuro della tecnologia!
Dr. Geoffrey Hinton, considerato il “Padrino dell’Intelligenza Artificiale”, ha passato l’intera vita lavorando su questa tecnologia e ora sta lanciando un avvertimento sui possibili rischi ad essa correlati.
Hinton, un pioniere dell’intelligenza artificiale, ha deciso di dimettersi dalla sua posizione presso l’azienda tecnologica Google per poter parlare più apertamente dei potenziali pericoli legati alla tecnologia.
Prima di dimettersi, Hinton ha lavorato presso Google per più di un decennio su algoritmi di machine learning, guadagnandosi il soprannome di “Godfather of AI” grazie alla sua attività nel campo delle reti neurali.
Tuttavia, in un tweet del 1 maggio, Hinton ha chiarito che ha lasciato la sua posizione in Google “per poter parlare dei pericoli dell’intelligenza artificiale”.
Cerchiamo di capire in cosa consistono i temuti pericoli dell’AI , già oggetto di molteplici riflessioni .
L’utilizzo di tecnologie avanzate come l’intelligenza artificiale e il machine learning sono diventati sempre più diffusi, tuttavia, il loro utilizzo comporta anche dei rischi significativi.
Hinton sostiene che la sicurezza deve essere una priorità, e che è necessario prendere tutte le precauzioni possibili per garantire l’uso sicuro di queste tecnologie.
Il rischio derivante dall’utilizzo dell’intelligenza artificiale e del machine learning dipende dalla quantità e dalla qualità dei dati che vengono utilizzati per l’apprendimento automatico.
Pertanto, è importante essere consapevoli dei potenziali rischi e garantire che questi algoritmi siano utilizzati in modo responsabile e sicuro.
In un’intervista al New York Times, la preoccupazione più immediata di Hinton riguardava l’utilizzo dell’intelligenza artificiale per diffondere su Internet foto, video e testo falsi, tanto che molte persone non saranno più in grado di sapere cosa sia vero.
Le altre preoccupazioni di Hinton riguardavano la possibilità che la tecnologia dell’intelligenza artificiale rubi posti di lavoro all’uomo.
In futuro, Hinton crede che l’IA possa rappresentare una minaccia per l’umanità a causa della sua capacità di apprendere comportamenti imprevisti dai dati massivi che analizza.
Inoltre, Hinton ha espresso preoccupazione per la continua corsa all’IA che mira a sviluppare ulteriormente la tecnologia per l’utilizzo in sistemi di armi autonome letali.
Hinton ha anche espresso un po’ di rimpianto per il lavoro della sua vita:
“Mi consolo con la solita scusa: se non l’avessi fatto io, qualcun altro l’avrebbe fatto.“
L’intelligenza artificiale, quando utilizzata in modo irresponsabile, può creare problemi significativi, tra cui la diffusione di foto, video e testi falsi.
Questo rappresenta una minaccia per la verità e la credibilità delle informazioni su Internet.
Inoltre, l’utilizzo dell’IA nella sostituzione dei lavoratori umani è un tema di grande preoccupazione.
Mentre l’IA può essere utilizzata per migliorare la produttività, la sostituzione dei lavoratori umani con l’IA potrebbe portare a un aumento della disoccupazione.
La preoccupazione per lo sviluppo di armi autonome letali è anche una questione molto importante.
Quando l’IA viene utilizzata per sviluppare sistemi di armi, ciò rappresenta una minaccia per la sicurezza umana, poiché le armi autonome letali potrebbero essere utilizzate in modo imprevedibile e causare danni irreparabili.
Negli ultimi mesi, anche i regolatori, i legislatori e i dirigenti dell’industria tecnologica hanno espresso preoccupazione per lo sviluppo della AI.
Un gruppo di 12 legislatori dell’Unione Europea ha firmato una lettera simile in aprile e un recente progetto di legge dell’UE classifica gli strumenti di AI in base ai loro livelli di rischio.
Anche il Regno Unito sta estendendo 125 milioni di dollari per sostenere un task force per lo sviluppo di “AI sicura”.
Gli strumenti di AI vengono già utilizzati per la disinformazione, con recenti esempi di media ingannati nel pubblicare fake news, mentre un’agenzia tedesca ha addirittura utilizzato l’AI per fabbricare un’intervista.
Il 1° maggio, Binance ha affermato di essere stato vittima di una campagna diffamatoria originata da ChatGPT e ha condiviso prove del chatbot che affermava che il suo CEO Changpeng “CZ” Zhao fosse un membro di un’organizzazione giovanile del Partito Comunista Cinese.
Il bot ha collegato un articolo di Forbes e una pagina LinkedIn dai quali sosteneva di aver tratto le informazioni, tuttavia l’articolo non sembra esistere e il profilo LinkedIn non è di Zhao.
La scorsa settimana, un gruppo di burloni ha ingannato diversi media in tutto il mondo, tra cui il Daily Mail e The Independent.
Vi consigliamo una lettura molto interessante su ChatGPT , se vi va di approfondire , cliccate sull’immagine sottostante .