L’intelligenza artificiale open supply ha fatto impazzire i fondatori e la FTC


Molti dei discorsi di ieri erano disseminati degli acronimi che ci si aspetterebbe da questa assemblea di relatori di alto livello: YC, FTC, AI, LLM. Ma intessuto in tutte le conversazioni, fondamentale per loro, potremmo dire, c’period il boosterismo per l’intelligenza artificiale open supply.

Si è trattato di una netta svolta a sinistra (o di un ritorno, se siete appassionati di Linux) rispetto agli anni 2010, ossessionati dalle app, quando gli sviluppatori sembravano felici di containerizzare le loro tecnologie e di affidarle a piattaforme più grandi per la distribuzione.

L’evento si è verificato anche solo due giorni dopo che il CEO di Meta Mark Zuckerberg aveva dichiarato che “l’intelligenza artificiale open supply è la strada da seguire” e aveva rilasciato Llama 3.1, l’ultima versione dell’algoritmo di intelligenza artificiale open supply di Meta. Come ha affermato Zuckerberg nel suo annuncio, alcuni tecnologi non vogliono più essere “vincolati da ciò che Apple ci permetterà di costruire” o imbattersi in regole arbitrarie e commissioni per le app.

L’intelligenza artificiale open supply è anche l’approccio che OpenAI sta adottando non utilizzando per i suoi GPT più grandi, nonostante ciò che il nome della startup multimiliardaria potrebbe suggerire. Ciò significa che almeno una parte del codice è tenuta privata e OpenAI non condivide i “pesi” o parametri dei suoi sistemi di intelligenza artificiale più potenti. Inoltre, addebita un costo per l’accesso a livello aziendale alla sua tecnologia.

“Con l’ascesa dei sistemi AI composti e delle architetture degli agenti, l’utilizzo di modelli open supply piccoli ma ben calibrati offre risultati significativamente migliori rispetto a un GPT4 (OpenAI) o a un Gemini (Google). Ciò è particolarmente vero per le attività aziendali”, afferma Ali Golshan, co-fondatore e amministratore delegato di Gretel.ai, un’azienda di dati sintetici. (Golshan non period presente all’evento YC).

“Non credo che si tratti di OpenAI contro il mondo o qualcosa del genere”, afferma Dave Yen, che gestisce un fondo chiamato Orange Collective per ex studenti di successo di YC per sostenere i fondatori emergenti di YC. “Penso che si tratti di creare una competizione leale e un ambiente in cui le startup non rischiano di morire il giorno dopo se OpenAI cambia i propri modelli di prezzo o le proprie politiche”.

“Ciò non significa che non dovremmo avere misure di sicurezza”, ha aggiunto Yen, “ma non vogliamo nemmeno imporre limiti di velocità inutilmente”.

I modelli di intelligenza artificiale open supply presentano alcuni rischi intrinseci sui quali i tecnologi più cauti hanno messo in guardia: il più ovvio è che la tecnologia È aperto e gratuito. Le persone con intenti malevoli hanno più probabilità di usare questi strumenti per fare del male rispetto a un costoso modello di IA privato. I ricercatori hanno sottolineato che è economico e facile per i malintenzionati addestrare through qualsiasi parametro di sicurezza presente in questi modelli di IA.

“Open supply” è anche un mito in alcuni modelli di intelligenza artificiale, come ha riferito Will Knight di WIRED. I dati utilizzati per addestrarli potrebbero essere ancora tenuti segreti, le loro licenze potrebbero impedire agli sviluppatori di costruire certe cose e, in definitiva, potrebbero comunque avvantaggiare il creatore del modello originale più di chiunque altro.

E alcuni politici si sono opposti allo sviluppo senza freni di sistemi di intelligenza artificiale su larga scala, tra cui il senatore dello stato della California Scott Wiener. Il disegno di legge sulla sicurezza e l’innovazione dell’intelligenza artificiale di Wiener, SB 1047, è stato controverso nei circoli tecnologici. Mira a stabilire normal per gli sviluppatori di modelli di intelligenza artificiale che costano oltre 100 milioni di dollari per la formazione, richiede determinati livelli di take a look at di sicurezza pre-implementazione e red-teaming, protegge i whistleblower che lavorano nei laboratori di intelligenza artificiale e garantisce al procuratore generale dello stato ricorso legale se un modello di intelligenza artificiale causa danni estremi.

Lo stesso Wiener ha parlato all’evento YC giovedì, in una conversazione moderata dalla reporter di Bloomberg Shirin Ghaffary. Ha detto di essere “profondamente grato” alle persone della comunità open supply che si sono espresse contro il disegno di legge e che lo stato ha “fatto una serie di emendamenti in risposta diretta advert alcuni di quei suggestions critici”. Un cambiamento che è stato fatto, ha detto Wiener, è che il disegno di legge ora definisce più chiaramente un percorso ragionevole per chiudere un modello di intelligenza artificiale open supply che è andato fuori dai binari.

L’oratore famoso dell’evento di giovedì, un’aggiunta dell’ultimo minuto al programma, è stato Andrew Ng, co-fondatore di Coursera, fondatore di Google Mind ed ex scienziato capo di Baidu. Ng, come molti altri presenti, ha parlato in difesa dei modelli open supply.

“Questo è uno di quei momenti in cui (si determina) se agli imprenditori è consentito continuare a innovare”, ha affermato Ng, “o se dovremmo spendere i soldi che andrebbero alla creazione di software program per assumere avvocati”.


Leave a Reply

Your email address will not be published. Required fields are marked *