Partecipa Accedi

Adithi Shankar

Membro dal giorno 2024

Campionato Argento

5030 punti
AI responsabile per sviluppatori: equità e bias Earned ott 18, 2024 EDT
AI responsabile per sviluppatori: interpretabilità e trasparenza Earned ott 18, 2024 EDT
Transformer Models and BERT Model - Italiano Earned set 16, 2024 EDT
Create Image Captioning Models - Italiano Earned set 16, 2024 EDT
Encoder-Decoder Architecture - Italiano Earned set 4, 2024 EDT
Attention Mechanism - Italiano Earned set 4, 2024 EDT

Questo corso introduce i concetti di AI responsabile e i principi dell'AI. Tratta le tecniche per identificare sostanzialmente l'equità e i bias e mitigare i bias nelle pratiche di AI/ML. Illustra metodi e strumenti pratici per implementare le best practice dell'AI responsabile utilizzando gli strumenti open source e i prodotti Google Cloud.

Scopri di più

Questo corso introduce i concetti di interpretabilità e la trasparenza dell'AI. Parla dell'importanza della trasparenza dell'AI per sviluppatori ed engineer. Illustra metodi e strumenti pratici per aiutare a raggiungere interpretabilità e trasparenza sia nei dati che nei modelli di AI.

Scopri di più

Questo corso ti introduce all'architettura Transformer e al modello BERT (Bidirectional Encoder Representations from Transformers). Scopri i componenti principali dell'architettura Transformer, come il meccanismo di auto-attenzione, e come viene utilizzata per creare il modello BERT. Imparerai anche le diverse attività per le quali può essere utilizzato il modello BERT, come la classificazione del testo, la risposta alle domande e l'inferenza del linguaggio naturale. Si stima che il completamento di questo corso richieda circa 45 minuti.

Scopri di più

Questo corso ti insegna come creare un modello per le didascalie delle immagini utilizzando il deep learning. Scoprirai i diversi componenti di un modello per le didascalie delle immagini, come l'encoder e il decoder, e imparerai ad addestrare e valutare il tuo modello. Alla fine di questo corso, sarai in grado di creare modelli personali per le didascalie delle immagini e utilizzarli per generare didascalie per le immagini.

Scopri di più

Questo corso ti offre un riepilogo dell'architettura encoder-decoder, che è un'architettura di machine learning potente e diffusa per attività da sequenza a sequenza come traduzione automatica, riassunto del testo e risposta alle domande. Apprenderai i componenti principali dell'architettura encoder-decoder e come addestrare e fornire questi modelli. Nella procedura dettagliata del lab corrispondente, implementerai in TensorFlow dall'inizio un semplice codice dell'architettura encoder-decoder per la generazione di poesie da zero.

Scopri di più

Questo corso ti introdurrà al meccanismo di attenzione, una potente tecnica che consente alle reti neurali di concentrarsi su parti specifiche di una sequenza di input. Imparerai come funziona l'attenzione e come può essere utilizzata per migliorare le prestazioni di molte attività di machine learning, come la traduzione automatica, il compendio di testi e la risposta alle domande.

Scopri di più