#135 AI affidabile ed etica

Subscribe to get the latest

on Wed Apr 26 2023 17:00:00 GMT-0700 (Pacific Daylight Time)

with Darren W Pulsipher, Gretchen Stewart,

In questo episodio Darren intervista Gretchen Stewart, Chief Data Scientist del settore pubblico presso Intel, dove discutono dell'affidabilità ed etica dell'intelligenza artificiale.


Keywords

#ai #ethics #trustworthiness #deepfake #aicontent #aidetection


Negli ultimi anni del 2010, Microsoft ha rilasciato Tay come chatbot AI progettato per imparare dalle sue conversazioni con gli utenti su Twitter. Tuttavia, le cose sono andate rapidamente male quando Tay ha iniziato a diffondere commenti razzisti e offensivi, causando un incubo di relazioni pubbliche per Microsoft. Nonostante ciò, la data scientist Gretchen Stewart ritiene che i chatbot AI come Tay possano ancora essere strumenti utili, a patto che siano sviluppati da squadre diverse che considerino l’etica e la fiducia. Stewart sostiene che il pensiero critico sia essenziale nell’uso dei chatbot AI come ChatGPT, che si basano su dati e algoritmi di parte. Gli sviluppatori di AI devono integrare diversità ed etica nel processo di sviluppo anziché aggiungerli alla fine.

Affidabilità.

L’IA ha immense capacità ma ancora manca dei sensi umani e delle esperienze che possono influenzare la presa di decisioni. Ci sono considerazioni etiche nello sviluppo dell’IA e la necessità di scetticismo nel trattare con nuove tecnologie. Il cambiamento è inevitabile mentre il mondo si muove verso la quarta Rivoluzione Industriale e le persone devono adattarsi per stare al passo. Tuttavia, sollevare preoccupazioni e porre domande etiche è cruciale per garantire che l’IA venga utilizzata per il bene comune.

Ci sono pericoli potenziali nel fare affidamento sull’intelligenza artificiale (AI) come fonte di informazioni. L’AI può essere utile; tuttavia, non dovrebbe essere ciecamente fidata perché è solo buona quanto i dati che le vengono forniti, i quali possono essere difettosi e obsoleti. Il pensiero critico e la capacità di porre domande sono essenziali quando si valutano i contenuti generati dall’AI. Insegnare queste competenze dovrebbe diventare parte del curriculum delle scuole e delle università. Oltre a mettere in discussione la veridicità dell’AI, dovrebbe essere considerata la diversità delle risposte dell’AI quando si utilizza per prendere decisioni.

Etica

Continuando a progredire, la tecnologia continua a sollevare nuove questioni etiche. Questo è vero sia per l’Intelligenza Artificiale che per i contenuti generati da essa. Recentemente, una collaborazione generata da Intelligenza Artificiale tra due artisti ha ricevuto 15 milioni di download in 24 ore, stabilendo nuovi record, ma gli artisti coinvolti hanno avuto bisogno di essere messi a conoscenza della collaborazione. Ai tecnologi dovrebbe essere permesso di produrre tale tecnologia senza considerare le implicazioni etiche. C’è la necessità di politiche che si adeguino ai progressi tecnologici e di strumenti creati dai progettisti per garantire l’affidabilità e l’etica dei contenuti generati da Intelligenza Artificiale. Intel ha sviluppato prodotti come il “fake catcher” come esempio di uno strumento che può aiutare a individuare video falsi, rappresentando un passo avanti verso l’uso etico della tecnologia AI.

Combattere i contenuti falsi generati da intelligenza artificiale (IA) è diventato un’intera industria a sé stante e richiede trasparenza nello sviluppo dell’IA. Ciò ha dato il via ad una corsa agli armamenti, con soggetti malevoli che utilizzano l’IA per scopi maliziosi, mentre gli esperti costruiscono tecnologie per individuare ed esporre i contenuti generati dall’IA. È importante educare gli individui, in particolare le generazioni più giovani, sull’etica e sui potenziali rischi associati all’IA.

Podcast Transcript