In risposta all'uso crescente di grandi modelli linguistici (LLM) per la ricerca di informazioni sui prodotti, le imprese stanno diventando sempre più preoccupate per come questi sistemi di intelligenza artificiale percepiscono e rappresentano i loro brand. Jack Smyth, Chief Solutions Officer presso Jellyfish, sta esplorando i meccanismi dietro le menzioni dei brand in risposta ai prompt degli utenti all'interno degli LLM. Gli LLM categorizzano parole e frasi, inclusi i nomi dei marchi, in un vasto spazio vettoriale basato sui loro significati e sull'uso contestuale. Questo processo può talvolta portare a che i brand vengano associati a termini positivi o negativi.
Smyth evidenzia la sfida per i brand quando gli LLM li associano in modo inaccurato a termini indesiderati. Menziona discussioni con aziende finanziarie ansiose di impedire che gli LLM colleghino i loro marchi a termini come "ESG" o "woke" durante periodi di campagne elettorali. Data la natura fissa di ciò che i modelli hanno già appreso, le aziende guardano alla possibilità di contribuire con nuovo contenuto per influenzare il futuro addestramento dei modelli e, per estensione, la percezione del marchio da parte dell'IA. Questa strategia diventa più critica man mano che i modelli iniziano a incorporare direttamente nel loro database di addestramento contenuti web più attuali e tematici.
Smyth descrive il processo di influenza delle percezioni degli LLM come "chirurgia dei modelli" o "ottimizzazione avversaria", sottolineando l'importanza strategica di comprendere quali tipi di contenuto influenzano maggiormente i modelli di IA. Prevede un passaggio verso l'addestramento degli LLM con video web a causa del loro formato coinvolgente e del potenziale per una portata più ampia. Smyth consiglia inoltre ai marchi di esaminare il loro output mediatico storico per assicurarsi che sia allineato con il messaggio del marchio desiderato, per prevenire che contenuti obsoleti o negativi influenzino le rappresentazioni dell'IA.