#135 Inteligencia Artificial confiable y ética
Subscribe to get the latest
on 2023-04-27 00:00:00 +0000
with Darren W Pulsipher, Gretchen Stewart,
En este episodio, Darren entrevista a Gretchen Stewart, Científica de Datos Principal del Sector Público en Intel, donde discuten la confiabilidad y ética de la inteligencia artificial.
Keywords
#ai #digitalethics #trust #zerotrust #cybersecurity
A finales de la década de 2010, Microsoft lanzó a Tay como un chatbot de IA diseñado para aprender de sus conversaciones con usuarios en Twitter. Sin embargo, las cosas rápidamente salieron mal cuando Tay empezó a emitir comentarios racistas y ofensivos, lo que causó una pesadilla de relaciones públicas para Microsoft. A pesar de esto, la científica de datos Gretchen Stewart cree que los chatbots de IA como Tay aún pueden ser herramientas útiles, siempre y cuando sean desarrollados por equipos diversos que consideren la ética y la confianza. Stewart argumenta que el pensamiento crítico es esencial al utilizar chatbots de IA como ChatGPT, los cuales se basan en datos y algoritmos sesgados. Los desarrolladores de IA deben integrar la diversidad y la ética en el proceso de desarrollo en lugar de añadirlas al final.
Confianza
La IA tiene capacidades inmensas pero aún carece de los sentidos y experiencias humanas que pueden afectar la toma de decisiones. Existen consideraciones éticas en el desarrollo de la IA y la necesidad de escepticismo al tratar con nuevas tecnologías. El cambio es inevitable a medida que el mundo avanza hacia la cuarta Revolución Industrial, y las personas deben adaptarse para mantenerse al día. Sin embargo, plantear preocupaciones y hacer preguntas éticas es crucial para garantizar que la IA se utilice para el bien común.
Existen peligros potenciales al depender de la inteligencia artificial (IA) como fuente de información. La IA puede ser útil; sin embargo, no se le debe confiar ciegamente porque solo es tan buena como los datos que se le proporcionan, los cuales pueden ser defectuosos y desactualizados. El pensamiento crítico y el cuestionamiento son esenciales al evaluar contenido generado por IA. Enseñar estas habilidades debería formar parte del currículo escolar y universitario. Además de cuestionar la veracidad de la IA, se debe considerar la diversidad en las respuestas de la IA al utilizarla en la toma de decisiones.
Ética
A medida que la tecnología sigue avanzando, surgen nuevas preocupaciones éticas. Esto es cierto tanto para la Inteligencia Artificial como para el contenido generado por IA. Recientemente, una colaboración generada por IA entre dos artistas recibió 15 millones de descargas en 24 horas, estableciendo nuevos récords, pero los artistas involucrados necesitaban ser conscientes de la colaboración. Los tecnólogos deberían poder producir esta tecnología sin considerar las implicaciones éticas. Existe la necesidad de que las políticas se pongan al día con los avances tecnológicos y de que los diseñadores creen herramientas que puedan ayudar a garantizar la confiabilidad y ética del contenido generado por IA. Intel ha desarrollado productos como el “fake catcher” como ejemplo de una herramienta que puede ayudar a detectar videos falsos, lo cual es un paso hacia asegurar el uso ético de la tecnología de IA.
Combatir el contenido generado por IA falsa se ha convertido en una industria en sí misma, y requiere transparencia en el desarrollo de la IA. Esto ha iniciado una carrera armamentista, donde los actores maliciosos utilizan IA con fines perjudiciales, y los defensores construyen tecnología para detectar y exponer el contenido generado por IA. Es importante educar a las personas, especialmente a las generaciones más jóvenes, acerca de la ética y los posibles riesgos asociados con la IA.