AGRILEVANTE

bimu

traduzioni e interpretariato per tutte le lingue mondiali, ovunque


English
version
fiere | servizi | Weekly | GMF | PRISMA | notizie | acquista

media kit | contattaci | chi siamo | stampa | link utili | privacy

numero totale utenti registrati: 153265

tipo di accesso: ospite | accedi | registrati

crediti mensili:
crediti giornalieri:

8 (nuovi 10 tra 29gg. 23h 18min.)
terminati (nuovi 2 tra 23h 18min.)


proponici le tue notizie

Will Knight Intelligenza artificiale 30.01.2025
Perché DeepSeek è una rivoluzione per l'intelligenza artificiale
Più che una minaccia al primato americano nell'AI, la startup cinese potrebbe essere il segno che nel settore si sta facendo largo un nuovo approccio
Foto: I pareri degli esperti sull'impatto di DeepSeek nel mondo dell'intelligenza artificialeWired Staff; Lam Yik/Getty Images


Pianeta Informatica news. Torino, 3 febbraio 2025 – Negli ultimi giorni R1, il nuovo e potente modello di intelligenza artificiale open source creato dalla startup cinese DeepSeek, ha scosso la Silicon Valley e il resto del mondo. Dotato di capacità all'avanguardia e sviluppato con un budget apparentemente ridotto, il sistema alimenta un chatbot AI che è balzato in cima alle classifiche delle app più scaricate (anche se è appena sparito dagli app store italiani), aprendo un dibattito su un imminente sconvolgimento dell'industria tecnologica.

Se da una parte c'è chi sostiene che l'ascesa di DeepSeek indichi che gli Stati Uniti hanno perso il loro vantaggio nel settore, altri esperti – tra cui i dirigenti di aziende che costruiscono e personalizzano alcuni dei modelli di frontiera più potenti al mondo – sostengono che il recente boom sia invece il segnale che è in corso un altro tipo di transizione tecnologica.

La rivoluzione di DeepSeek

Invece di cercare di creare modelli sempre più grandi e che richiedono quantità esorbitanti di risorse di calcolo, le aziende di AI si stanno concentrando maggiormente sullo sviluppo di capacità avanzate, come il ragionamento. Questo approccio ha creato un'opportunità per le startup più piccole e innovative che come DeepSeek non hanno beneficiato di miliardi di dollari in investimenti esterni. "È un cambiamento di paradigma verso il ragionamento, che sarà molto più democratizzato", afferma Ali Ghodsi, amministratore delegato di Databricks, un'azienda specializzata nella costruzione e nell'hosting di modelli AI personalizzati.

"È ormai chiaro da tempo che saranno l'innovazione e la creazione di maggiori efficienze […] a stimolare il prossimo ciclo di scoperte tecnologiche", dice Nick Frosst, cofondatore di Cohere, una startup che costruisce modelli AI di frontiera.

Negli ultimi giorni migliaia di sviluppatori e appassionati di intelligenza artificiale hanno visitato il sito di DeepSeek e la sua app ufficiale per provare l'ultimo modello dell'azienda, per poi condividere sui social media esempi delle sue sofisticate capacità. Nel frattempo lunedì 27 gennaio le azioni delle società tech statunitensi, tra cui il produttore di chip Nvidia, sono crollate dopo che gli investitori hanno iniziato a mettere in dubbio la necessità di investire ingenti somme nello sviluppo dell'AI.

La questione dei costi

La tecnologia alla base dell'AI di DeepSeek è stata sviluppata da un laboratorio di ricerca cinese relativamente piccolo, nato da un importante hedge fund. In un documento di ricerca pubblicato online lo scorso dicembre si legge che il modello linguistico di grandi dimensioni DeepSeek-V3 è costato solo 5,6 milioni di dollari, una frazione rispetto alla cifra necessaria ai concorrenti per progetti simili. In passato OpenAI ha dichiarato che alcuni dei suoi modelli sono costati fino a 100 milioni di dollari ciascuno, comunque molto meno dei sistemi più recenti della società (e di quelli Google, Anthropic e Meta).

Le prestazioni e l'efficienza dei modelli di DeepSeek hanno già spinto alcune grandi aziende tecnologiche a parlare di taglio dei costi. Un ingegnere di Meta, che ha chiesto di rimanere anonimo in quanto non autorizzato a parlare pubblicamente, ritiene che probabilmente il gigante cercherà di analizzare le tecniche usate da DeepSeek per trovare un modo di ridurre il proprio esborso sul fronte dell'AI. "Crediamo che i modelli open source stiano guidando un cambiamento significativo nel settore e che questo porterà i benefici dell'AI a tutti più velocemente – ha dichiarato un portavoce di Meta in un comunicato –. Vogliamo che gli Stati Uniti, e non la Cina, continuino a essere leader nell'AI open source: ed è per questo che Meta la sta sviluppando con i modelli Llama, che sono stati scaricati oltre 800 milioni di volte".

Tuttavia il reale costo dello sviluppo dei nuovi modelli di DeepSeek rimane sconosciuto, dal momento che una cifra citata in un singolo documento di ricerca potrebbe non restituire il quadro completo delle spese. "Non credo che si tratti di 6 milioni di dollari, ma anche se fossero 60 milioni, sarebbe una rivoluzione – commenta Umesh Padval, amministratore delegato di Thomvest ventures, una società che ha investito in diverse aziende di AI –. Sul fronte della redditività, [DeepSeek] metterà sotto pressione le aziende che si concentrano sull'AI per i consumatori ".

Ghodsi di Databricks racconta che i suoi clienti hanno iniziato a chiedergli se potessero utilizzare l'ultimo modello e le tecniche di base di DeepSeek per ridurre i costi nelle loro organizzazioni, aggiungendo che la cosiddetta distillation – un approccio utilizzato dagli ingegneri della startup cinese, che prevede l'utilizzo dei risultati di un modello linguistico di grandi dimensioni per addestrare un altro modello - è relativamente economico e semplice.

Padval sostiene che l'esistenza di modelli come quello di DeepSeek finirà per essere un vantaggio per le aziende che vogliono spendere meno in AI, che in molti casi però potrebbero avere delle riserve ad affidarsi a un modello cinese per compiti delicati. Finora solo Perplexity tra i grandi attori nel settore ha annunciato pubblicamente di utilizzare R1, sottolineando però di ospitare il modello in modo "completamente indipendente dalla Cina".

Le capacità di ragionamento di DeepSeek

Parlando con Wired US Amjad Massad, amministratore delegato di Replit, una startup che offre strumenti AI per la programmazione, ha definito impressionanti gli ultimi modelli di DeepSeek. Pur ritenendo Sonnet di Anthropic superiore in molti compiti di ingegneria informatica, Massad ha trovato R1 particolarmente abile quando si tratta di trasformare i comandi di testo in codice eseguibile da un computer. "Stiamo valutando la possibilità di utilizzarlo soprattutto per il ragionamento degli agenti", aggiunge

Le ultime due offerte di DeepSeejk, R1 e R1-Zero, sono in grado di simulare il ragionamento al livello dei sistemi più avanzati di OpenAI e Google, scomponendo i problemi in più elementi basilari in modo da affrontarli in modo più efficace. Per garantire che l'AI arrivi in modo affidabile alla risposta corretta, questo processo richiede una notevole quantità di addestramento aggiuntivo.

Un documento pubblicato la scorsa settimana dai ricercatori di DeepSeek illustra l'approccio utilizzato per creare R1, che secondo l'azienda avrebbe prestazioni superiori a quelle del modello più avanzato di OpenAI, o1, su determinati benchmark. Le tattiche utilizzate da DeepSeek includono un metodo più automatizzato per imparare a risolvere correttamente i problemi e una strategia per trasferire le competenze da modelli più grandi a quelli più piccoli.

Il nodo dei chip

Un altro dei temi caldi legati a DeepSeek è quello dell'hardware che potrebbe essere stato utilizzato dall'azienda. La questione è particolarmente rilevante perché negli ultimi anni il governo statunitense ha introdotto una serie di controlli sulle esportazioni e di altre restrizioni commerciali per limitare la capacità della Cina di acquisire e produrre chip all'avanguardia, necessari per la costruzione di AI avanzate.

In un documento di ricerca dell'agosto 2024, DeepSeek ha indicato di disporre di un cluster di 10mila chip Nvidia A100, che rientrano nelle restrizioni annunciate dagli Stati Uniti nell'ottobre 2022. In un altro documento pubblicato nel giugno dello stesso anno, la startup cinese ha aveva dichiarato che un suo modello precedente, DeepSeek-V2, era stato sviluppato utilizzando i chip Nvidia H800, un componente meno capace sviluppato dal chipmaker per rispettare i vincoli americani.

Una fonte che lavora in un'azienda che si occupa di addestramento di modelli AI, che ha chiesto di rimanere anonima per tutelare i propri rapporti professionali, stima che DeepSeek abbia utilizzato circa 50mila chip Nvidia per costruire la propria tecnologia.

Nvidia si è rifiutata di commentare nel dettaglio la questione, limitandosi a definire DeepSeek un “eccellente progresso per l'intelligenza artificiale” tramite un portavoce, e aggiungendo che l'approccio basato sul ragionamento della startup "richiede un numero significativo di Gpu Nvidia e di reti ad alte prestazioni".

A prescindere di come siano stati costruiti, i modelli di DeepSeek sembrano dimostrare che sta prendendo piede un'impostazione meno chiusa allo sviluppo dell'AI. A dicembre, Clem Delangue, amministratore delegato di HuggingFace, una piattaforma che ospita modelli di intelligenza artificiale, aveva previsto che un'azienda cinese avrebbe dominato il settore dell'AI grazie alla velocità nell'innovazione dei modelli open source, che la Cina ha ampiamente abbracciato. "È stata più veloce di quanto pensassi", ha poi dichiarato Delangue.

Questo articolo è apparso originariamente su Wired US.

Will Knight


03/02/2025 - 10.06.25

fonte: Wired


ricerca notizie:

fonte:

range temporale:

ordina per:

data, ora discendente

data, ora ascendente


Interfiere

FairAdvisor

I vostri hotel per le fiere di Rimini


© 2025 copyright Pianeta Srl - Torino. Tutti i diritti sono riservati. La registrazione, riproduzione, copia, distribuzione o comunicazione pubblica non autorizzate costituiscono violazione del copyright. I trasgressori saranno perseguiti a norma di legge e soggetti al pagamento dei danni.