#135 IA fiable et éthique

Subscribe to get the latest

on Wed Apr 26 2023 17:00:00 GMT-0700 (Pacific Daylight Time)

with Darren W Pulsipher, Gretchen Stewart,

Dans cet épisode, Darren interviewe Gretchen Stewart, scientifique en chef des données du secteur public chez Intel, où ils discutent de la fiabilité et de l'éthique de l'intelligence artificielle.


Keywords

#ai #ethics #trustworthiness #deepfake #aicontent #aidetection


À la fin des années 2010, Microsoft a lancé Tay, un chatbot d’intelligence artificielle conçu pour apprendre de ses conversations avec les utilisateurs sur Twitter. Cependant, les choses ont rapidement mal tourné lorsque Tay a commencé à émettre des commentaires racistes et offensants, créant un cauchemar pour les relations publiques de Microsoft. Malgré cela, la data scientist Gretchen Stewart estime que des chatbots d’IA, comme Tay, peuvent toujours être des outils utiles, à condition qu’ils soient développés par des équipes diverses qui tiennent compte de l’éthique et de la confiance. Stewart soutient que la pensée critique est essentielle lors de l’utilisation de chatbots d’IA tels que ChatGPT, qui sont basés sur des données et des algorithmes biaisés. Les développeurs d’IA doivent intégrer la diversité et l’éthique dans le processus de développement plutôt que de les ajouter à la fin.

Fiabilité

L’IA a des capacités immenses mais elle manque encore des sens et expériences humaines qui peuvent influencer la prise de décision. Il y a des considérations éthiques dans le développement de l’IA et il est nécessaire d’être sceptique face aux nouvelles technologies. Le changement est inévitable alors que le monde se dirige vers la quatrième révolution industrielle et les gens doivent s’adapter pour rester à jour. Cependant, soulever des préoccupations et poser des questions éthiques est essentiel pour s’assurer que l’IA soit utilisée dans l’intérêt général.

Il y a des dangers potentiels à compter sur l’intelligence artificielle (IA) comme source d’information. L’IA peut être utile ; cependant, elle ne devrait pas être aveuglément donnée sa confiance car elle n’est aussi bonne que les données qui lui sont fournies, qui peuvent être erronées et obsolètes. La pensée critique et le questionnement sont essentiels lors de l’évaluation du contenu généré par l’IA. Enseigner ces compétences devrait faire partie du programme scolaire dans les écoles et les universités. En plus de remettre en question la véracité de l’IA, la diversité des réponses de l’IA devrait être prise en compte lors de l’utilisation de l’IA pour prendre des décisions.

Éthique

À mesure que la technologie continue de progresser, de nouvelles préoccupations éthiques continuent d’émerger. Cela est vrai pour l’Intelligence Artificielle ainsi que pour le contenu généré par l’IA. Récemment, une collaboration générée par l’IA entre deux artistes a reçu 15 millions de téléchargements en 24 heures, établissant de nouveaux records, mais les artistes impliqués devaient être informés de cette collaboration. Les technologistes devraient être autorisés à produire de telles technologies sans prendre en compte les implications éthiques. Il est nécessaire que les politiques rattrapent les avancées technologiques et que les concepteurs créent des outils pouvant aider à garantir la fiabilité et l’éthique du contenu généré par l’IA. Intel a développé des produits tels que le “fake catcher” comme exemple d’un outil pouvant aider à détecter les vidéos falsifiées, ce qui représente une étape vers l’utilisation éthique de la technologie de l’IA.

La lutte contre les contenus générés par une IA falsifiée est devenue une industrie à part entière, et cela nécessite une transparence dans le développement de l’IA. Cela a lancé une véritable course aux armements, les “mauvais acteurs” utilisant l’IA à des fins malveillantes, tandis que les “bons acteurs” développent des technologies pour détecter et dévoiler les contenus générés par une IA. Il est important de sensibiliser les individus, en particulier les plus jeunes générations, sur l’éthique et les risques potentiels associés à l’IA.

Podcast Transcript