Questa è la storia di due ricercatori di Stanford – @jakub_smekal (KB7) e @InferenceActive (KB5) – che esplorano uno dei framework più completi nell'intelligenza artificiale.
Il framework di inferenza attiva di Karl Friston descrive come tutti gli organismi minimizzino l'"energia libera" - la differenza tra stati attesi e realtà percepita.
"Campioniamo il mondo per assicurarci che le nostre previsioni diventino una profezia che si autoavvera," scrisse una volta Friston.
L'Inferenza Attiva dialoga con altri paradigmi dell'IA come l'apprendimento per rinforzo e l'elaborazione predittiva.
Daniel e Jakub hanno co-autore diversi articoli di ricerca sull'argomento, incluso il Generalized Notation Notation (GNN), un linguaggio standardizzato basato su testo che collega teoria e implementazione attraverso diverse scienze e discipline.
Il dottorato di Jakub è cresciuto dall'inferenza attiva ai modelli di spazio di stato profondo (SSM).
"Gran parte del mio lavoro consiste nella minimizzazione dell'incertezza," ci ha detto Jakub, prima di riflettere, "Immagino che questo sia il gioco in cui tutti (nell'IA) stanno giocando."
Dalle cellule ai modelli di IA fino alle società, stiamo tutti approfondendo la nostra relazione con la sorpresa. Preparati all'inaspettato.
Stiamo organizzando un salone di ricerca a New York presso @archetypevc il 28 ottobre.
Il tema è "dove la ricerca incontra la produzione", idee chiare, dimostrazioni dal vivo e revisione costruttiva tra pari.
Ognuno dei ~30 partecipanti avrà l'opportunità di condividere opere recenti.
Contattaci in DM se desideri partecipare.