#103 Operacionalizando seus projetos de IA

Subscribe to get the latest

on Mon Aug 29 2022 17:00:00 GMT-0700 (Pacific Daylight Time)

with Darren W Pulsipher, Gretchen Stewart,

Darren Pulsipher, Arquiteto de Soluções-chefe da Intel, Setor Público, e Gretchen Stewart, Cientista de Dados-chefe da Intel, Setor Público, discutem a operacionalização de projetos de IA.


Keywords

#aiops #devops #compute #technology #process #devsecops #cybersecurity #aiml


Gretchen é um excelente exemplo de alguém que continua aprendendo e se adaptando. Seu diploma de graduação é em matemática. Ela possui um mestrado em negócios e concluiu um programa em Harvard há alguns anos, focado em ciência de dados, o que a levou a seu cargo de Cientista de Dados Chefe na Intel no setor público. Ela trabalhou na área de tecnologia por mais de 20 anos, começando com engenharia de software, e passou 15 anos no espaço federal.

Ela acha especialmente gratificante trabalhar no setor público porque faz diferença na vida dos cidadãos comuns. Além disso, o governo federal possui os dados mais abundantes do planeta, o que é perfeito para alguém que adora estar imerso em dados e continuar aprendendo mais.

Existem muitos termos relacionados à IA. Primeiro, é essencial entender a diferença entre inteligência artificial (IA) e operações de aprendizado de máquina (ML ops). ML ops são técnicas que fazem parte da IA; eles são um subconjunto. Os algoritmos de ML derivam sua força de uma habilidade para aprender a partir dos dados disponíveis. Então, principalmente, você está aprendendo a partir de dados supervisionados ou não supervisionados.

A diferença simples entre aprendizado supervisionado e não supervisionado é a etiqueta dos dados. No aprendizado supervisionado, os conjuntos de dados são etiquetados. Isso significa que como os dados parecem já está mapeado. Isso torna muito mais fácil classificar e prever. No aprendizado não supervisionado, você está tentando encontrar padrões nos dados; a máquina está aprendendo a criar relacionamentos entre os dados com base em encontrar formas comuns, similaridades ou diferenças.

Um exemplo de aprendizado supervisionado seria uma loja online recomendando um item que um cliente gostaria de comprar com base em seu histórico de compras ou um serviço de streaming recomendando um filme com base nos hábitos de visualização de alguém.

Muitos termos agora têm a abreviação “ops” no final. Por exemplo, as pessoas dizem “DL ops” para operações de deep learning, um subconjunto de machine learning. Por que o “ops”? Primeiro, não é tão sofisticado quanto DevOps. Em vez disso, é influenciado pela amplamente adotada ideia da abordagem DevOps para criar e personalizar aplicativos. As pessoas estão tentando desenvolver um conjunto de práticas para ajudar a otimizar a confiabilidade e eficiência do design, desenvolvimento e execução de machine learning. Seria quase como um mercado onde você pode criar e operar aplicativos personalizados e depois compartilhá-los com outras pessoas.

Muitos modelos e algoritmos já estão otimizados e disponíveis em ferramentas como Converge.io ou C3 AI. Essas metodologias e tecnologias podem ajudar a agilizar seus modelos de aprendizado de máquina. A melhor maneira de fazer isso é por meio de várias ferramentas que são de código aberto ou software específico criado pelo fornecedor para tornar a criação, desenvolvimento, design, execução e fluxo muito mais acessíveis.

O desenvolvimento de IA é semelhante à situação no desenvolvimento de software há 30 anos. Muitos dos passos ainda são manuais e espera-se que sejam automatizados em breve.

Em episódios anteriores, Darren e Gretchen discutiram sobre como muitos projetos de IA e ML são experimentos científicos realizados apenas uma vez. Em seguida, o cientista de dados passa para outra coisa e nunca é operacionalizado. Ao contrário disso, a operação de ML está avançando ao implantar o modelo para fornecer valor real após o treinamento e aprendizado.

Algumas empresas estão explicitamente aproveitando essas ferramentas. Domino Labs, por exemplo, praticamente cria esse mercado. Trabalhar no setor público, digamos, em submarinos nucleares realizando detecção de objetos ou classificação por agrupamento, poderia ser aplicável na Força Aérea ou em outros setores auxiliares para que o trabalho pudesse ser catalogado, auxiliando na operacionalização e construção de ambientes ágeis. É possível aproveitar alguns algoritmos e ponderá-los de forma diferente dependendo dos resultados. É possível ajustar com base nas diferenças nos conjuntos de dados, mas pelo menos existem… pontos de partida? Comunalidades? Ferramentas compartilhadas? Suas últimas palavras aqui foram cortadas…

A segurança está sempre preocupada com software e modelos de código aberto, e a IA possui circunstâncias únicas. Por exemplo, como você sabe se o desenvolvedor não treinou o modelo para ignorar seu próprio rosto em um modelo de reconhecimento facial? Atualmente, espera-se que as pessoas documentem certas coisas, como a origem de um conjunto de dados.

Há também a questão de ética e responsabilidade. O chatbot Tay e os vieses encontrados em programas de reconhecimento facial foram ótimos exemplos de IA que deu errado sem intenção maliciosa. Por muito tempo em operações de aprendizado de máquina, era uma única pessoa fazendo o trabalho e produzindo os resultados. Agora, a ideia é que você precisa de uma equipe diversificada de pessoas em diferentes capacidades e com diferentes visões de mundo.

A primeira conferência para discutir IA e ML ocorreu em 1956 na Dartmouth College. A verdade é que muitos conceitos básicos de IA, como regressão logística, regressão linear, algoritmos de clusterização, etc., são equações matemáticas que existem há muito tempo. Claro, surgiram frameworks adicionais brilhantes, como o TensorFlow, a partir dos quais construímos, mas os fundamentos ainda são/ainda eram a base. Adicionamos computação, armazenamento, 5G e capacidades únicas. Depois de realizar todo o treinamento, você tem os dados e as informações ao lado da tecnologia, em vez de ter que trazer tudo para a tecnologia. Trazer a tecnologia para os dados abre algumas questões divertidas e empolgantes que agora podemos resolver.

Mas as conversas em torno de como o modelo foi treinado, qual foi o dado original e como lidar com a deriva do modelo devem estar sempre acontecendo. Após algum tempo, é necessário retrainar; talvez seja necessário usar um algoritmo diferente ou ponderar o atual de forma diferente para obter informações mais precisas, pois há mais dados e dados mais diversos. Isso é bom porque aumenta seu nível de precisão.

Então, com o movimento em direção a ML Ops, você pode fazer isso continuamente. Assim como o desenvolvimento de software foi em direção à integração e implantação contínuas, o mesmo começará a acontecer em IA ou ML, onde os modelos serão atualizados e se tornarão cada vez mais precisos.

Podcast Transcript