Di recente si sono verificati diversi eventi importanti nel mondo dell'intelligenza artificiale: dal rilascio di un potente modello aperto, agli avvertimenti sui rischi di sicurezza di un protocollo popolare, fino all'adozione di una regolamentazione completa in California.
Ling-1T: una rivoluzione nella formazione, non nell'architettura
Il Gruppo Ant ha introdotto modello aperto gigante Ling-1T con mille miliardi di parametri.
A differenza della concorrenza non ha bisogno di una „modalità di pensiero“ speciale“. La sua capacità di ragionare è direttamente incorporata nella risposta immediata attraverso un addestramento intensivo su dati contenenti catene di ragionamenti.
Nei test ha superato modelli come il GPT-5 e il Gemini 2.5 Pro. in 22 su 31 benchmark, in particolare in matematica e ragionamento.
Il modello è liberamente scaricabile sotto la licenza MIT, che rende meno netta la distinzione tra modelli aperti e commerciali.
Avviso degli esperti: il protocollo MCP nasconde gravi rischi per la sicurezza
Un nuovo studio evidenzia aumento esponenziale delle minacce alla sicurezza per i sistemi che utilizzano il Model Context Protocol (MCP).
Il problema è nei cosiddetti. rischio di composizioneLa vulnerabilità aumenta rapidamente con ogni server MCP aggiunto. Solo 2 server comportano un rischio di 36%, mentre con 10 server il rischio si avvicina a 92 %.
Gli aggressori possono sfruttare i server che ricevono dati da fonti non attendibili per esecuzione di ordini non autorizzati, come l'esecuzione di codice.
La California mostra la strada: la prima normativa completa sull'IA negli Stati Uniti
In risposta all'assenza di leggi federali, la California ha adottato un pacchetto quattro regolamenti innovativi.
SB 53 obbliga i creatori dei modelli più potenti a pubblicare i protocolli di sicurezza.
SB 243 protegge i minori dagli effetti nocivi dei chatbot.
AB 316 prevede che la responsabilità legale per i danni è sempre a carico dell'azienda, non un'intelligenza artificiale autonoma.
AB 853 ordinato da etichettatura chiara dei contenuti generati dall'IA.
Le leggi hanno suscitato reazioni contrastanti: alcune aziende le hanno accolte con favore, mentre altre hanno messo in guardia da una frammentazione delle norme.
Gli scienziati scoprono un modo più efficiente: migliori prompt sostituiscono la costosa formazione
Un team di ricercatori ha presentato un algoritmo GEPA, che migliora notevolmente le capacità dell'agente AI. L'algoritmo GEPA migliora automaticamente le indicazioni dell'agente AI attraverso un'evoluzione iterativa. LLM analizza i fallimenti dell'agente e poi rivede le indicazioni per correggere quegli errori specifici. LLM testa e seleziona in modo iterativo i suggerimenti più efficaci, migliorando le prestazioni in modo più efficiente rispetto al riapprendimento del modello stesso.
Invece di richiedere la messa a punto del modello genera e ottimizza automaticamente le istruzioni (suggerimenti) basati sull'analisi degli errori dell'agente.
Questo metodo ha raggiunto risultati migliori rispetto all'apprendimento tradizionale e allo stesso tempo era fino a 35 volte più economico sulle risorse informatiche.
È la soluzione ideale per le situazioni in cui i dati o la potenza di calcolo sono limitati.
Punti dati - DeepLearning.AI di Andrew Ng / gnews.cz - GH