#103 Operacionalizando tus proyectos de IA

Subscribe to get the latest

on 2022-08-30 00:00:00 +0000

with Darren W Pulsipher, Gretchen Stewart,

Darren Pulsipher de Intel, Arquitecto Principal de Soluciones en el Sector Público, y Gretchen Stewart, Científica Principal de Datos en el Sector Público, discuten la operativización de proyectos de IA.


Keywords

#artificialintelligence #machinelearning #data #deeplearning #devops #datamanagement #generativeai #people #technology #process


Gretchen es un excelente ejemplo de alguien que aprende y se adapta continuamente. Su licenciatura es en matemáticas. Tiene una maestría en negocios y completó un programa en Harvard hace solo unos años enfocado en ciencia de datos, lo que la llevó a su cargo como científica principal de datos en Intel en el sector público. Ha trabajado en el campo de la tecnología durante más de 20 años, comenzando con la ingeniería de software, y pasó 15 años en el ámbito federal.

Encuentra trabajar en el sector público especialmente gratificante porque marca la diferencia en la vida diaria de los ciudadanos. Además, el gobierno federal cuenta con la mayor cantidad de datos en el planeta, por lo que es perfecto para alguien a quien le encanta sumergirse en la información y seguir aprendiendo más.

Existen muchos términos relacionados con la inteligencia artificial (IA). Primero, es esencial entender la diferencia entre la inteligencia artificial (IA) y las operaciones de aprendizaje automático (ML ops). Las ML ops son técnicas que forman parte de la IA, son un subconjunto. Los algoritmos de aprendizaje automático derivan su poder de la capacidad de aprender a partir de datos disponibles. Por lo tanto, principalmente se aprende a partir de datos supervisados ​​o no supervisados.

La diferencia simple entre el aprendizaje supervisado y no supervisado es la etiqueta de los datos. En el aprendizaje supervisado, los conjuntos de datos están etiquetados. Esto significa que cómo se ve los datos ya está mapeado. Esto facilita mucho la clasificación y la predicción. En el aprendizaje no supervisado, estás tratando de encontrar patrones en los datos; la máquina está aprendiendo a crear relaciones entre los datos basándose en encontrar formas comunes, similitudes o diferencias.

Un ejemplo de aprendizaje supervisado sería una tienda en línea recomendando un artículo que un cliente podría querer comprar basado en su historial de compras, o un servicio de streaming recomendando una película basada en los hábitos de visualización de alguien.

Muchos términos ahora tienen la abreviatura “ops” al final. Por ejemplo, la gente dice “DL ops” para operaciones de aprendizaje profundo, un subconjunto de aprendizaje automático. ¿Por qué “ops”? En primer lugar, no es tan sofisticado como DevOps. En cambio, está influenciado por la idea ampliamente adoptada del enfoque de DevOps para crear y personalizar aplicaciones. La gente está tratando de desarrollar un conjunto de prácticas para ayudar a optimizar la confiabilidad y eficiencia del diseño, desarrollo y ejecución del aprendizaje automático. Sería como un mercado donde puedes crear y operar aplicaciones personalizadas y luego compartirlas con otros.

Muchos modelos y algoritmos ya están optimizados y disponibles en herramientas como Converge.io o C3 AI. Estas metodologías y tecnologías pueden ayudarte a optimizar tus modelos de aprendizaje automático. La mejor manera de hacerlo es utilizando varias herramientas que sean de código abierto o software específico creado por proveedores para facilitar la creación, desarrollo, diseño, ejecución y flujo del proceso.

El desarrollo de IA es similar a donde estaba el desarrollo de software hace 30 años. Muchos de los pasos siguen siendo manuales y esperamos que se operativicen pronto.

En episodios anteriores, Darren y Gretchen discutieron cómo muchos proyectos de IA y ML son experimentos científicos realizados una vez. Luego, el científico de datos pasa a otra cosa y nunca se opera. En contraste, ML ops se está moviendo hacia implementar el modelo para proporcionar un valor real después del entrenamiento y el aprendizaje.

Algunas empresas están aprovechando explícitamente esas herramientas. Domino Labs, por ejemplo, casi crea ese mercado. Trabajar en el sector público, digamos, en submarinos nucleares haciendo detección de objetos o clasificación de agrupación, podría ser aplicable en la Fuerza Aérea u otro auxiliar para que ese trabajo se pueda catalogar y ayudar a operativizar y construir entornos ágiles. Podrías aprovechar algunos algoritmos y ponderarlos de manera diferente según los resultados. Podrías ajustarlo según las diferencias en los conjuntos de datos, pero al menos hay… ¿puntos de partida? ¿Comunalidades? ¿Herramientas compartidas? Sus últimas palabras aquí se cortaron…

La seguridad siempre se preocupa por el software de código abierto y los modelos, y la IA tiene circunstancias únicas. Por ejemplo, ¿cómo sabes si el desarrollador no lo ha entrenado para ignorar su rostro en un modelo de reconocimiento facial? Ahora se espera que las personas documenten cosas, por ejemplo, de dónde proviene un conjunto de datos.

También está el tema de la ética y la responsabilidad. El chatbot Tay y el sesgo en los programas de reconocimiento facial fueron excelentes ejemplos de inteligencia artificial desviada sin intención maliciosa. Durante mucho tiempo en las operaciones de aprendizaje automático, una sola persona realizaba el trabajo y obtenía los resultados. Ahora, la idea es que se necesita un equipo diverso de personas con diferentes capacidades y diferentes perspectivas del mundo.

La primera conferencia para discutir la IA y el ML fue en 1956 en Dartmouth College. La verdad es que muchos conceptos básicos de IA, como la regresión logística, la regresión lineal, los algoritmos de clustering, etc., son ecuaciones matemáticas que han existido durante mucho tiempo. Por supuesto, ha habido adicionales y brillantes marcos de trabajo como TensorFlow, a partir del cual construir, pero los conceptos básicos siguen siendo los cimientos. Hemos añadido cómputo, almacenamiento, 5G y capacidades únicas. Una vez que hayas completado todo el entrenamiento, tienes los datos e información junto con la tecnología en lugar de tener que llevarlo todo a la tecnología. Traer la tecnología a los datos nos abre la posibilidad de resolver problemas divertidos y emocionantes.

Pero las conversaciones relacionadas con cómo se entrenó el modelo, cuáles fueron los datos originales y tener en cuenta la deriva del modelo siempre deben estar ocurriendo. Después de un tiempo, es necesario volver a entrenar; tal vez sea necesario utilizar un algoritmo diferente o ponderar de manera diferente el actual para obtener información más precisa, debido a que hay más datos y más datos que son más diversos. Todo esto es bueno porque aumenta tu nivel de precisión.

Entonces, con el movimiento hacia las operaciones de aprendizaje automático (ML ops), esto se puede hacer de forma continua. Al igual que el desarrollo de software se inclinó hacia la integración y el despliegue continuos, lo mismo comenzará a suceder en la IA o el ML, donde los modelos se actualizarán y se volverán cada vez más precisos.

Podcast Transcript