#103 Operazionalizzare i tuoi progetti di intelligenza artificiale

Subscribe to get the latest

on Mon Aug 29 2022 17:00:00 GMT-0700 (Pacific Daylight Time)

with Darren W Pulsipher, Gretchen Stewart,

Darren Pulsipher, Chief Solutions Architect di Intel nel settore pubblico, e Gretchen Stewart, Chief Data Scientist nel settore pubblico, discutono sulla messa in opera dei progetti di intelligenza artificiale.


Keywords

#aiops #devops #compute #technology #process #devsecops #cybersecurity #aiml


Gretchen è un eccellente esempio di una persona che continua a imparare e adattarsi. Ha conseguito una laurea triennale in matematica. Ha una laurea magistrale in economia e ha completato un programma presso Harvard solo pochi anni fa, focalizzato sulla scienza dei dati, che l’ha portata al suo ruolo di Capo scienziato dei dati presso Intel nel settore pubblico. Ha lavorato nel campo della tecnologia per oltre 20 anni, iniziando con l’ingegneria del software e ha trascorso 15 anni nel settore federale.

Trova particolarmente gratificante lavorare nel settore pubblico perché fa la differenza nella vita quotidiana dei cittadini. Inoltre, il governo federale dispone dei dati più completi al mondo, quindi è perfetto per chi ama essere sommerso di informazioni e continuare a imparare sempre di più.

Ci sono molti termini legati all’AI. Prima di tutto, è essenziale comprendere la differenza tra intelligenza artificiale (AI) e operazioni di machine learning (ML ops). Le ML ops sono tecniche che fanno parte dell’AI; sono un sottoinsieme. Gli algoritmi di ML traggono la loro forza dalla capacità di apprendere dai dati disponibili. Quindi, principalmente, si impara dai dati supervisionati o non supervisionati.

La semplice differenza tra apprendimento supervisionato e non supervisionato è l’etichetta dei dati. Nell’apprendimento supervisionato, i dataset sono etichettati. Ciò significa che l’aspetto dei dati è già mappato. Ciò facilita molto la classificazione e la previsione. Nell’apprendimento non supervisionato, si cercano modelli nei dati; la macchina impara a creare relazioni tra i dati trovando modi comuni, somiglianze o differenze.

Un esempio di apprendimento supervisionato sarebbe un negozio online che consiglia un oggetto che un cliente potrebbe voler acquistare in base alla sua storia degli acquisti, o un servizio di streaming che consiglia un film in base alle abitudini di visione di qualcuno.

Molti termini hanno ora la sigla “ops” alla fine. Ad esempio, le persone dicono “DL ops” per indicare le operazioni di apprendimento profondo, una sotto-categoria dell’apprendimento automatico. Perché “ops”? Prima di tutto, non è così sofisticato come DevOps. Piuttosto, è influenzato dall’idea ampiamente adottata dell’approccio DevOps alla creazione e personalizzazione delle applicazioni. Le persone stanno cercando di sviluppare un insieme di pratiche per ottimizzare l’affidabilità e l’efficienza della progettazione, dello sviluppo e dell’esecuzione dell’apprendimento automatico. Quindi sarebbe quasi come un mercato in cui è possibile creare e gestire applicazioni personalizzate e poi condividerle con gli altri.

Molti modelli e algoritmi sono già ottimizzati e disponibili in strumenti come Converge.io o C3 AI. Queste metodologie e tecnologie possono aiutarti a rendere più efficienti i tuoi modelli di apprendimento automatico. Il modo migliore per farlo è utilizzare molti strumenti che possono essere sia open source che software specifici creati dai fornitori per rendere la creazione, lo sviluppo, il design, l’esecuzione e il flusso molto più accessibili.

Lo sviluppo dell’IA è simile a come era lo sviluppo del software 30 anni fa. Molti dei passaggi sono ancora manuali e speriamo che verranno presto automatizzati.

Nei precedenti episodi, Darren e Gretchen hanno discusso di quanti progetti di intelligenza artificiale e machine learning siano esperimenti scientifici svolti una volta sola. Successivamente, lo scienziato dei dati passa a qualcos’altro e non viene mai messo in produzione. Al contrario, l’operationalization del machine learning si muove verso il deployment del modello per fornire un vero valore dopo l’addestramento e l’apprendimento.

Alcune aziende stanno espressamente sfruttando questi strumenti. Ad esempio, Domino Labs crea quasi quel mercato. Lavorare nel settore pubblico, ad esempio, su sottomarini nucleari per rilevare oggetti o classificarli in cluster, potrebbe essere applicabile nell’Aeronautica o in altri settori ausiliari, così da poter catalogare il lavoro per aiutare a operazionalizzare e costruire ambienti agili. Potresti sfruttare alcuni algoritmi e ponderarli in modo diverso in base ai risultati. Potresti modificarlo in base alle differenze nei dataset, ma almeno ci sono… dei punti di partenza? Delle comunanze? Delle risorse condivise? Le sue ultime parole qui si interrompono…

La sicurezza è sempre interessata al software e ai modelli open-source, e l’intelligenza artificiale ha circostanze uniche. Ad esempio, come si fa a sapere che lo sviluppatore non l’ha addestrata a ignorare il proprio volto in un modello di riconoscimento facciale? Ora c’è l’aspettativa che le persone documentino le cose, ad esempio, da dove proviene un insieme di dati.

C’è anche la questione dell’etica e della responsabilità. Il chatbot Tay e il pregiudizio riscontrato nei programmi di riconoscimento facciale sono stati ottimi esempi di IA che ha preso una direzione sbagliata senza intenti maliziosi. Per molto tempo nell’operatività del ML, era una sola persona a svolgere il lavoro e produrre i risultati. Ora, l’idea è che sia necessaria una squadra diversificata di persone con capacità diverse e punti di vista diversi.

La prima conferenza per discutere di AI e ML si è tenuta nel 1956 presso il Dartmouth College. La verità è che molti dei concetti di base dell’AI, come la regressione logistica, la regressione lineare, gli algoritmi di clustering, ecc., sono equazioni matematiche che esistono da molto tempo. Naturalmente, sono stati sviluppati framework aggiuntivi brillanti come Tensorflow da utilizzare come base, ma i concetti di base rimangono ancora i fondamenti. Abbiamo aggiunto calcolo, archiviazione, 5G e capacità uniche. Una volta completato tutto il training, i dati e le informazioni si trovano accanto alla tecnologia anziché doverli trasportare fino alla tecnologia. Portare la tecnologia ai dati offre la possibilità di affrontare problemi divertenti ed emozionanti che possiamo ora risolvere.

Ma le conversazioni riguardanti come il modello è stato addestrato, quali erano i dati originali e la considerazione del cambiamento del modello devono sempre accadere. Dopo un certo tempo, è necessario riaddestrarlo; forse è necessario utilizzare un diverso algoritmo o pesare in modo diverso quello attuale per ottenere informazioni più accurate a causa di una quantità maggiore di dati e di dati più diversificati. Tutto ciò è positivo perché aumenta il livello di precisione.

Quindi, con il movimento verso l’operatività di ML, puoi farlo in modo continuo. Proprio come lo sviluppo del software si è orientato verso l’integrazione e il dispiegamento continui, la stessa cosa inizierà a accadere nell’AI o nell’ML, dove i modelli verranno aggiornati e diventeranno sempre più accurati.

Podcast Transcript