07/11/2023 🇺🇸 Gli USA vogliono regolare l’AI

La settimana scorsa è uscito il documento ufficiale che l’industria AI (e non solo) stava aspettando.

Il Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence è il nuovo ordine esecutivo della Casa Bianca, che si pone sostanzialmente questi obiettivi:

  • Garantire la sicurezza e l'affidabilità dei sistemi di AI, in particolare attraverso la richiesta di test di sicurezza e altre informazioni per i “frontier models” più avanzati. Per capire quali e come devono venire testati, sono state scelte delle soglie di potenza di calcolo utilizzata nell’addestramento del modello.
  • Avanzare l’uso responsabile ed etico dell'AI da parte del governo degli Stati Uniti, sia a livello nazionale che internazionale. Questo include lo sviluppo di linee guida sull'AI e il reclutamento di esperti nel settore pubblico.

Ora, nella pratica cosa ne pensiamo?

Sebbene sia molto presto per capire l’impatto che questo genere di “base regolatrice” avrà, possiamo osservare che:

  • Questo è il più grande sforzo dell'amministrazione Biden finora per stabilire un esempio di sviluppo responsabile dell'AI, puntando su sicurezza, privacy e diritti civili. Gli USA non scherzano.
  • La scelta di dover segnalare solo modelli oltre una certa soglia di potenza di calcolo investita… secondo noi non ha molto senso.
    • La potenza di calcolo non è l’unico fattore che determina la “potenza” di un modello. Un ruolo chiave lo giocano anche i dati usati e la procedura di RLHF, con cui si guida il modello verso il comportamento desiderato.
    • I miglioramenti algoritmici permettono di abbassare DI TANTO la potenza di calcolo richiesta per ottenere le stesse performance, e ricerche di questo tipo stanno aumentando in modo esponenziale (ad esempio, un nuovo modo per calcolare l’attenzione del modello che può portare un miglioramento del 16x!)

Insomma, mixed feelings.

È ottimo che gli stati si muovano nella direzione di cercare di governare il fenomeno AI, però è anche molto facile commettere errori nella valutazione dei rischi (ne abbiamo parlato nel numero scorso).

Ti lasciamo alcune risorse per approfondire:

Nel frattempo si è tenuto il UK Safety Summit, che ha visto esperti internazionali, ministri e industriali confrontarsi sull’intelligenza artificiale e le implicazioni sulla società.

Al Summit era presente anche Musk, che ha dichiarato come “l’AI svolgerà qualsiasi lavoro a un certo punto. Non avremo un Universal Basic Income, ma un Universal High Income.”

Speriamo 😀

Nel frattempo Musk ha lanciato Grok, la sua nuova AI, con l’azienda xAI.

Alcuni elementi che sono emersi:

  • Grok ha accesso in tempo reale alle informazioni su X (Twitter).
  • Finestra di input di 25.000 caratteri
  • Le API saranno presto disponibili
  • Riconoscimento immagini e codifica audio

Il fatto più interessante è che sia connesso alle notizie di Twitter in tempo reale significa che gli utenti potranno “interrogare” la mente collettiva di Twitter in un attimo, e avere risposte contestuali (di contro, può aggravare il problema delle “bolle”?)

Stiamo a vedere, appena lo abbiamo a disposizione lo proviamo.

Infine la domanda esistenziale più importante dell’AI, del futuro utopico che ci viene promesso e dei rischi di estinzione umana:

Secondo te tra quanto smetteremo di chiamarlo Twitter?

Altre news interessanti

🔴 Annuncio Live 🔴

Come attrarre le nuove generazioni nel mondo del lavoro?

Domani Mercoledì 8 Novembre alle 17:30 ne parliamo con Fabiana Manager 🔥

Toccheremo diversi temi come:

📌  Come attrarre e ingaggiare le nuove generazioni in azienda 📌 Strategie ed esempi concreti con case study 📌  Q&A con Fabiana

Come al solito, potrete fare tutte le domande che volete!

Vi aspettiamo numerosi, ecco il link

https://www.linkedin.com/events/comeattrarrelenuovegenerazioni 🚀 

🍕 Datapizza Selection 🍕

Non perderti questo evento

Assicurati di guardare il Developer Day di OpenAI, c’è stato ieri sera!

Faremo una live per discuterne, ma le novità presentate sono incredibili.

Il prossimo numero di Commit sarà incentrato su questo evento.

Guarda questo video

In questo intervento Evan Morikawa, Head of Engineering a OpenAI, spiega come ha fatto l’azienda ad affrontare la sfida enorme di scalare ChatGPT a centinaia di milioni di utenti in poche settimane, perchè le GPU “non bastano mai” e come si è evoluta la struttura organizzativa di OpenAI nel corso dell’ultimo anno.

Molto figo 👉 Evan Morikawa at LeadDev West Coast 2023

Salvati questa risorsa

Microsoft ha rilasciato una serie di lezioni gratuite su AI generativa, non perderteli!

Sono super utili e hanno consigli per niente banali anche su come costruire applicazioni.

Dacci un occhiata 👇

https://github.com/microsoft/generative-ai-for-beginners

Utilizziamo i cookies

Utilizziamo i cookies al fine di raccogliere ed utilizzare dati come dichiarato nell’informativa sulla privacy.

Cliccando su "Accetta", aderisci all'utilizzo dei nostri cookies.
Scopri di più