Il Frontier Model Forum è una nuova alleanza che promuoverà lo sviluppo sicuro dei modelli fondanti dell’intelligenza artificiale, la definizione di standard e la collaborazione.
Microsoft, Google, OpenAI e Anthropic si impegnano, insieme, per un’intelligenza artificiale responsabile. Un’espressione che negli ultimi tempi è circolata un po’ ovunque, in molte promesse e manifesti delle aziende tecnologiche che sviluppano e vendono AI, ma anche tra le righe dei testi di legge come l’AI Act europeo. Che cosa significa? Per le quattro società citate, significa innanzitutto “garantire uno sviluppo sicuro e responsabile dei modelli di AI di frontiera”, come i large language model che fanno da fondamento a ChatGPT, alla chat di Bing, al Copilot e a Bard (per citare le applicazioni più note). E poi supportare attività di ricerca, aiutare a definire le best practice e collaborare con il mondo della politica, della ricerca accademica e della società civile.
Queste le attività che saranno portate avanti da Frontier Model Forum, una nuova alleanza industriale avviata, appunto, da Microsoft, Google, OpenAI e Anthropic. Si chiama forum perché apre un tavolo di discussione e invita nuovi membri ad unirsi all’alleanza. Potranno aderire le aziende che sviluppano e commercializzano “modelli di frontiera” per l’intelligenza artificiale, perché dimostrino un forte impegno nei confronti della sicurezza.
Il manifesto del Frontier Model Forum elenca quattro pilastri. Innanzitutto, la promozione di uno sviluppo responsabile dei modelli, in cui cerchi di minimizzare i rischi. Secondo punto è l’identificazione di best practice e standard di mercato per lo sviluppo e la commercializzazione dei modelli, ma anche per cercare di spiegare al grande pubblico la natura, le abilità, i limiti e l’impatto delle tecnologie.
Gli aderenti dovranno poi collaborare con legislatori, accademici, società civile e aziende, condividendo le conoscenze sui rischi dell’AI secondo modalità sicure. Inoltre dovranno dare un contributo alla creazione di applicazioni socialmente utili, dalla lotta al cambiamento climatico alle sfide della medicina, alla cybersicurezza.
Per quanto riguarda la sicurezza dell’intelligenza artificiale, questo valore dovrà essere portato avanti non solo nello sviluppo dei modelli fondativi e delle applicazioni: tutto l’ecosistema dell’AI dovrà essere sicuro. E anche i meccanismi di condivisione delle informazioni dovranno garantire sicurezza e fiducia.
Basta ripetere molte volte un concetto per convincere i più scettici o i più timorosi? Si potrebbe argomentare sul potenziale conflitto di interessi di un’iniziativa come questa, in cui le aziende che macinano profitti grazie all’AI si propongono esse stesse di regolarla, di porre delle limitazioni. D’altra parte a società come Microsoft e Google, presumibilmente, interessa non tanto il profitto immediato quanto piuttosto la capacità di costruire relazioni di fiducia di lungo periodo, dimostrando che dell’intelligenza artificiale non c’è da aver paura. Tra l’altro, secondo quanto dichiarato da un portavoce di OpenAI a Reuters, l’associazione non è intenzionata a fare azioni di lobbying sui governi.
Per ora possiamo notare come i grandi player del settore dell’AI stiano scegliendo di collaborare su molti fronti e di favorire l’interoperabilità e l’integrazione tra le rispettive tecnologie (un po’ come già fatto per il cloud computing). Ne è esempio la recente collaborazione tra Microsoft e Meta per il lancio di Llama 2, nuova versione del large language model sviluppato a Menlo Park.
“Le aziende che creano tecnologie di AI hanno la responsabilità di garantire che sia sicura, senza rischi, e che resti sotto al controllo umano”, ha dichiarato Brad Smith, presidente di Microsoft. “Questa iniziativa è un passo vitale per far riunire tutto il settore per far progredire l’AI responsabilmente e affrontando le sfide in modo da avvantaggiare tutta l’umanità”.
Fonte: ictbusiness.it