01/08/2023🫱🏽‍🫲🏻 Le Big Tech si alleano per l’AI

Chi lo avrebbe mai detto?

Google, Microsoft, OpenAI e Anthropic hanno annunciato il ”Frontier Model Forum”, un’alleanza che si impegna a “garantire lo sviluppo sicuro e responsabile dei modelli AI”.

Sai cosa significa questo?

Che ora tutti i giganti tecnologici e i loro laboratori AI lavoreranno insieme per riuscire a sviluppare l’AI “in modo sicuro”.

Questo annuncio fa eco sicuramente alle lettere aperte di numerosi scienziati di qualche mese fa, che chiedevano di rallentare e controllare maggiormente lo sviluppo dell’Intelligenza Artificiale.

In realtà il Forum non punta a “fermare lo sviluppo” e a regolamentare il settore (come in molti chiamano a gran voce) ma anzi, probabilmente lo accelera.

Tuttavia, dicono le aziende, punta a farlo in modo sostenibile e controllato, mettendo le forze a fattore comune.

Il Forum mira a:

  • promuovere la ricerca sulla sicurezza dell'IA per minimizzare i potenziali rischi
  • identificare le migliori pratiche di sicurezza per i Large Language Models
  • condividere conoscenze con i responsabili delle politiche, gli accademici e la società civile
  • sostenere gli sforzi per sfruttare l'IA per affrontare le più grandi sfide della società

… Ok, piuttosto interessante, vediamo come si sviluppa e che azioni faranno nel concreto.

Alcune riflessioni che sorgono spontanee sono:

  • sicuramente questo strumento verrà utilizzato anche per ingrandire ulteriormente il divario tecnologico che c’è fra le Big Tech e i loro competitors
  • che impatto può avere questo sul mercato tecnologico? Quali player possono essere “esclusi”?

La centralizzazione eccessiva delle capacità tecnologiche, quando si tratta di strumenti così trasformativi, può avere conseguenze rischiose:

  • ad esempio, le aziende potrebbero voler usare il loro “peso complessivo” per influenzare la politica americana, in modo da favorire il loro vantaggio competitivo e assicurarsi i profitti della crescita del settore, o “dirigere” il suo sviluppo nella direzione che gli viene più comoda

Nonostante questo, noi pensiamo che nel lungo termine questo genere di organismo abbiano un “impatto netto positivo”, in quanto sono in grado anche di spingere l’educazione della popolazione. Inoltre, possono aiutare a portare nel discorso pubblico temi che altrimenti verrebbero considerati “troppo tardi.

Da notare che Meta non è in questa alleanza e proprio una settimana fa ha rilasciato il suo ultimo modello open source, Llama 2, per competere con ChatGPT ne abbiamo parlato nell’ultimo numero. Vedremo che succede!

Altre news interessanti

🍕 Datapizza Selection 🍕

Nuovi tools AI da provare:

Ecco alcuni nuovi tools AI che durante la settimana abbiamo provato:

  • 🎬 Munch: Piattaforma AI per clip video coinvolgenti e dati di marketing
  • 🔍 Guidde: Estensione browser per clip personalizzate e voiceover AI
  • 🖥️ Screen Story: Registratore schermo MacOS per video dinamici su Twitter
  • 🎙️ Castmagic: Trascrizione podcast in note e contenuti social
  • 🧠 Quizgecko: Generatore automatico di quiz e flashcard tramite AI

Il progetto Open Source

Questa settimana vi portiamo un progetto open source creato da Andrej Kharpaty, Ex Direttore di AI a Tesla, che ora lavora ad OpenAI.

Offre la possibilità di addestrare l'architettura Llama 2 (di Meta) da zero in PyTorch e di esportare i pesi in un file binario. È anche possibile caricare in memoria il modello, fare fine tuning e inferenza.

Anche i Large Language Models molto “piccoli” possono ottenere prestazioni sorprendentemente buone se il dominio è sufficientemente ristretto!

https://github.com/karpathy/llama2.c

La risorsa da salvare

A proposito di “AI piccole ma specializzate”, vi lasciamo questo paper che studia come un dataset di altissima qualità possa fornirci AI molto accurate senza dover ricorrere a modelli enormi.

Nel paper viene addestrato un modello di soli 1 miliardo di parametri che sovraperforma GPT 3.5 in alcuni task!

https://arxiv.org/abs/2305.07759

Utilizziamo i cookies

Utilizziamo i cookies al fine di raccogliere ed utilizzare dati come dichiarato nell’informativa sulla privacy.

Cliccando su "Accetta", aderisci all'utilizzo dei nostri cookies.
Scopri di più