- L'intelligenza artificiale cambia le previsioni meteo.
- In India si usano nuove previsioni.
- 38 milioni di agricoltori le hanno ricevute.
- Il modello si chiama NeuralGCM.
- Le previsioni sono arrivate quattro settimane prima.
- Il modello ha previsto una pausa di tre settimane.
- NeuralGCM usa regole fisiche e machine learning.
- Il software funziona anche su un laptop.
- Il progetto può aiutare molti altri paesi.
Parole difficili
- previsioni — Informazioni su cosa succederà.
- agricoltori — Persone che coltivano la terra.
- tecnologia — Strumenti e metodi moderni.
- modello — Un esempio o un sistema usato.
- economico — Non costa molto.
- accurate — Molto precise e corrette.
- veloci — Fatti in poco tempo.
Suggerimento: passa il mouse o tocca le parole evidenziate nell’articolo per vedere definizioni rapide mentre leggi o ascolti.
Domande di discussione
- Perché le previsioni sono importanti per gli agricoltori?
- Come pensi che l'AI possa aiutare altri settori?
- Quali altri strumenti potrebbero essere utili in agricoltura?
Articoli correlati
Perché i modelli faticano a moltiplicare numeri a quattro cifre
Una ricerca spiega che i modelli linguistici non conservano valori intermedi necessari per moltiplicare numeri a quattro cifre. Un metodo chiamato ICoT e un obiettivo di addestramento mirato migliorano molto i risultati.
Intelligenza artificiale per la salute sessuale in America Latina
Gruppi in Perù e Argentina usano intelligenza artificiale per dare informazioni su salute sessuale e riproduttiva, con progetti per giovani e comunità marginalizzate. Esperti avvertono però rischi per le persone transgender e chiedono regole e dati migliori.
IA in America Latina per contrastare violenza e disuguaglianze
Gruppi latinoamericani sviluppano sistemi di intelligenza artificiale aperti e locali per studiare la violenza e le disuguaglianze di genere. Strumenti come AymurAI proteggono dati sensibili e forniscono prove a governi e società civile.
Come l'intelligenza artificiale generativa cambia la disinformazione
In un'intervista del 12 novembre 2025 Laura Jasper (HCSS) spiega come l'AI generativa renda la disinformazione più veloce, ampia e personalizzata. Suggerisce misure per attribuire responsabilità, misurare gli effetti sui comportamenti e rafforzare la fiducia sociale.