Una ricerca dimostra che la combinazione di modelli linguistici con algoritmi tradizionali ottiene risultati migliori rispetto al solo LLM, Google sta introducendo uno strumento per costruire applicazioni di IA senza codice e OpenAI sta rafforzando gli standard di sicurezza. Ecco un riepilogo dei punti salienti dell'AI della scorsa settimana.
I punti salienti della settimana:
- I sistemi di intelligenza artificiale ibridi che combinano LLM e algoritmi classici superano i modelli linguistici puri
- Google Cloud introduce Gemini API Expander per la creazione di app di intelligenza artificiale senza bisogno di codificare
- OpenAI ha pubblicato gli standard di sicurezza per scalare i modelli all'intelligenza umana
- Microsoft rilascia uno strumento per il rilevamento automatico delle vulnerabilità nei sistemi di intelligenza artificiale
- Un nuovo studio dimostra che l'intelligenza artificiale può prevedere il rischio di morte con un'accuratezza di 75%
I sistemi ibridi di intelligenza artificiale superano i modelli linguistici puri
Sempre più spesso i ricercatori scoprono che la combinazione di modelli linguistici di grandi dimensioni con algoritmi tradizionali fornisce risultati migliori rispetto ai soli LLM. I sistemi ibridi utilizzano gli LLM per l'elaborazione del linguaggio naturale e gli algoritmi tradizionali per i compiti che richiedono calcoli precisi o la manipolazione di dati strutturati. Questo approccio mostra prestazioni superiori nella risoluzione di compiti complessi come il ragionamento matematico e le simulazioni scientifiche, in cui gli LLM puri spesso falliscono. Il passaggio alle architetture ibride rappresenta un cambiamento significativo nella progettazione dei sistemi di intelligenza artificiale.
Google Cloud lancia Gemini API Expander
Google Cloud ha presentato Gemini API Expander, uno strumento che consente alle aziende di creare applicazioni di intelligenza artificiale senza dover ricorrere alla codifica. La piattaforma utilizza l'apprendimento per trasferimento per adattare i modelli preaddestrati di Gemini a specifici casi d'uso aziendali. Una nuova funzione di Prompt Shield protegge dagli attacchi di prompt injection, mentre un'API RAG aggiornata migliora l'accuratezza della ricerca dei documenti. L'azienda ha inoltre annunciato la disponibilità generale del modello Gemini 1.5 Flash e l'espansione della finestra di contesto a 2 milioni di token, per consentire l'elaborazione di documenti di grandi dimensioni.
OpenAI rafforza gli standard di sicurezza
OpenAI ha pubblicato nuovi standard di sicurezza volti a gestire i rischi associati allo sviluppo di modelli capaci di un'intelligenza di livello umano. Il quadro prevede la valutazione obbligatoria delle capacità dei modelli prima della formazione, la definizione di limiti per la replica autonoma e la definizione di procedure per lo spegnimento di sistemi altamente avanzati. L'azienda ha anche annunciato la creazione di un Consiglio consultivo per la sicurezza, composto da esperti esterni, per supervisionare l'attuazione della politica. L'iniziativa riflette le crescenti preoccupazioni sui rischi potenziali dei sistemi di intelligenza artificiale superintelligenti.
Microsoft rilascia uno strumento di rilevamento delle vulnerabilità AI
Microsoft ha presentato un nuovo strumento di sicurezza in grado di identificare automaticamente le vulnerabilità nei sistemi di intelligenza artificiale. Lo strumento utilizza una combinazione di analisi statica del codice e test dinamici per individuare le lacune di sicurezza nelle applicazioni di intelligenza artificiale. Lo strumento è in grado di rilevare problemi comuni come la prompt injection, il data poisoning e gli attacchi di inversione del modello. L'azienda ha inoltre pubblicato una serie di best practice per la sicurezza delle applicazioni di IA, tra cui raccomandazioni per il controllo dell'accesso ai modelli e il monitoraggio di comportamenti insoliti.
L'intelligenza artificiale predice la mortalità con una precisione di 75%
Un nuovo studio pubblicato su Nature dimostra che un modello di intelligenza artificiale addestrato sulle cartelle cliniche di routine può prevedere il rischio di morte con un'accuratezza di 75%. Il sistema analizza dati come la pressione sanguigna, i livelli di colesterolo e lo stile di vita senza accedere a diagnosi esplicite. Il modello ha superato gli strumenti predittivi tradizionali utilizzati nella pratica clinica ed è stato in grado di identificare i pazienti ad alto rischio mesi prima di potenziali complicazioni di salute. Questo approccio potrebbe rivoluzionare la medicina preventiva, anche se solleva questioni etiche sulla privacy e sull'uso di dati sensibili.
Il lotto - DeepLearning.Ai di Andrew Ng / gnews.cz - GH