L'elaborazione del linguaggio naturale umano da parte delle macchine è stata per decenni un'enorme sfida per gli sviluppatori. Assistenti come Google Assistant, Alexa, Siri o Cortana hanno rappresentato i primi tentativi di sviluppare sistemi in grado di riconoscere la voce e interpretare i comandi, ma con risultati spesso deludenti. La situazione è cambiata drasticamente con l'avvento dei Large Language Model, che oggi riescono a comprendere facilmente le intenzioni dell'utente, interpretarle e rispondere di conseguenza. In questa puntata analizziamo come i modelli linguistici comprendono la nostra voce e quali sono le tecnologie che migliorano questa comprensione, esplorando alcuni esempi di prodotti tra cui il nuovo Insta360 WAVE.Nella sezione delle notizie parliamo del possibile addio ai cookie banner, dell'annuncio della NASA sulla data per la missione Artemis II e infine della battaglia legale di Apple contro il Digital Markets Act europeo.--Indice--00:00 - Introduzione01:05 - Verso la fine dei cookie banner? (AgendaDigitale.eu, Luca Martinelli)02:33 - La NASA annuncia la data per Artemis II (DDay.it, Matteo Gallo)03:28 - Apple contro il DMA europeo (HDBlog.it, Davide Fasoli)05:09 - Come i computer comprendono la nostra voce (Luca Martinelli)16:21 - La nostra esperienza con Insta360 WAVE (Davide Fasoli, Luca Martinelli)26:21 - Conclusione--Testo--Leggi la trascrizione: https://www.dentrolatecnologia.it/S7E39#testo--Contatti--• www.dentrolatecnologia.it• Instagram (@dentrolatecnologia)• Telegram (@dentrolatecnologia)• YouTube (@dentrolatecnologia)•
[email protected]• Puntata realizzata in collaborazione con Insta360--Brani--• Ecstasy by Rabbit Theft• Whatever by Cartoon & Andromedik