Chi lo avrebbe mai detto?
Google, Microsoft, OpenAI e Anthropic hanno annunciato il ”Frontier Model Forum”, un’alleanza che si impegna a “garantire lo sviluppo sicuro e responsabile dei modelli AI”.
Sai cosa significa questo?
Che ora tutti i giganti tecnologici e i loro laboratori AI lavoreranno insieme per riuscire a sviluppare l’AI “in modo sicuro”.
Questo annuncio fa eco sicuramente alle lettere aperte di numerosi scienziati di qualche mese fa, che chiedevano di rallentare e controllare maggiormente lo sviluppo dell’Intelligenza Artificiale.
In realtà il Forum non punta a “fermare lo sviluppo” e a regolamentare il settore (come in molti chiamano a gran voce) ma anzi, probabilmente lo accelera.
Tuttavia, dicono le aziende, punta a farlo in modo sostenibile e controllato, mettendo le forze a fattore comune.
Il Forum mira a:
… Ok, piuttosto interessante, vediamo come si sviluppa e che azioni faranno nel concreto.
Alcune riflessioni che sorgono spontanee sono:
La centralizzazione eccessiva delle capacità tecnologiche, quando si tratta di strumenti così trasformativi, può avere conseguenze rischiose:
Nonostante questo, noi pensiamo che nel lungo termine questo genere di organismo abbiano un “impatto netto positivo”, in quanto sono in grado anche di spingere l’educazione della popolazione. Inoltre, possono aiutare a portare nel discorso pubblico temi che altrimenti verrebbero considerati “troppo tardi.
Da notare che Meta non è in questa alleanza e proprio una settimana fa ha rilasciato il suo ultimo modello open source, Llama 2, per competere con ChatGPT ne abbiamo parlato nell’ultimo numero. Vedremo che succede!
Ecco alcuni nuovi tools AI che durante la settimana abbiamo provato:
Questa settimana vi portiamo un progetto open source creato da Andrej Kharpaty, Ex Direttore di AI a Tesla, che ora lavora ad OpenAI.
Offre la possibilità di addestrare l'architettura Llama 2 (di Meta) da zero in PyTorch e di esportare i pesi in un file binario. È anche possibile caricare in memoria il modello, fare fine tuning e inferenza.
Anche i Large Language Models molto “piccoli” possono ottenere prestazioni sorprendentemente buone se il dominio è sufficientemente ristretto!
https://github.com/karpathy/llama2.c
A proposito di “AI piccole ma specializzate”, vi lasciamo questo paper che studia come un dataset di altissima qualità possa fornirci AI molto accurate senza dover ricorrere a modelli enormi.
Nel paper viene addestrato un modello di soli 1 miliardo di parametri che sovraperforma GPT 3.5 in alcuni task!
Utilizziamo i cookies al fine di raccogliere ed utilizzare dati come dichiarato nell’informativa sulla privacy.
Cliccando su "Accetta", aderisci all'utilizzo dei nostri cookies.
Scopri di più