Il percettore multistrato (MLP) è una rete neurale artificiale che imita il funzionamento del cervello umano ed è alla base di molte tecnologie di intelligenza artificiale moderne.
L'intelligenza artificiale sta trasformando il settore automobilistico, dalla progettazione alla produzione, con soluzioni innovative come il generative design e la manutenzione predittiva.
PaLM (Pathways Language Model) è un modello linguistico di grande scala sviluppato da Google AI, annunciato nell'aprile 2022.
I Transformer, introdotti nel 2017 da Google con il paper "Attention is All You Need", sono il motore invisibile dietro ChatGPT, Gemini e altri sistemi di IA moderni
La backpropagation è l'algoritmo fondamentale che consente alle reti neurali di apprendere, aggiornando i pesi delle connessioni per minimizzare l'errore.
Il Rapporto Lighthill, commissionato dal Science Research Council britannico, rappresentò una valutazione fortemente critica dello stato dell'IA negli anni '70.
La Conferenza di Dartmouth del 1956 è universalmente riconosciuta come il momento di nascita formale dell'intelligenza artificiale come campo di ricerca.
Il Machine Learning (ML) è una branca dell'Intelligenza Artificiale (AI) che consente ai computer di apprendere dai dati e migliorare le proprie prestazioni senza essere esplicitamente programmati per ogni singolo compito.
I Large Language Models (LLM) sono avanzati modelli di intelligenza artificiale addestrati su enormi quantità di dati testuali.
Il Continual Learning, noto anche come Lifelong Learning, permette ai sistemi AI di acquisire nuove conoscenze preservando quelle esistenti.
Lo Zero-shot Learning rappresenta una delle frontiere più avanzate dell'intelligenza artificiale, permettendo ai modelli di affrontare compiti completamente nuovi senza alcun esempio specifico di addestramento.
Il Few-shot Learning rappresenta una svolta nel machine learning, permettendo ai modelli di apprendere da un numero estremamente limitato di esempi.
Più conoscenza. Più possibilità. Ogni giorno.