È appena uscito ChatGPT-4o la nuova versione più potente rispetto a ChatGPT-4 e la cosa che mi ha colpito è la loro strategia di prezzo 💰💰
Fino ad ora ogni nuova versione di ChatGPT comportava un abbassamento del prezzo della versione precedente ed un leggero aumento del prezzo della versione nuova rispetto a prima.
In questo caso il prezzo di GPT-4o è il 50% più economico rispetto a GPT-4 Turbo.
(immagine fatta fare da ChatGPT-4o)
Le ragioni possono essere molteplici, come risorse computazionali minori, dimensioni del modello, efficienza dell'algoritmo, licensing, economie di scala.
Ma se queste sono le reali ragioni con cui Open AI calcola il prezzo di ChatGPT, allora significa che stanno usando un modello Cost-Based Pricing e non Value-Based Pricing.
Qual è la differenza e perché è importante?
Apple (come tanti) ha sempre adottato un modello di prezzo basato sul valore percepito (value-based) e non basato sui costi dei componenti dei loro prodotti (cost-based).
Di solito si adotta una strategia cost-based più è forte la competizione e minor è potente il brand.
Nike per esempio è Value-Based proprio perché ha un brand fortissimo che fa preferire i loro prodotti anche se sono dello stesso materiale di tanti altri che costano la metà.
OpenAI viene invece forzata da tutti i competitor che stanno rilasciando modelli AI open source a costare il meno possibile cercando di entrare in più "case" possibili (smartphone per il B2C e stack tecnologico per il B2B) prima che arrivino altri modelli potenti abbastanza.
OpenAI punta infatti su una strategia di lock in con il quale una volta dentro ad un'azienda sarà in grado di fare upselling di tantissimi prodotti che creeranno e potenzialmente potranno alzare il prezzo in un secondo momento senza per questo rischiare di perdere clienti che ormai si basano su questo per far funzionare le loro feature AI.
Un grandissimo esempio di questo è stato AWS con tutti i loro prodotti che ormai sono decine e noi di Learnn per esempio ne usiamo più di 10 nel nostro stack tecnologico pagando €10k+/mese.
Possiamo quindi aspettarci che nei prossimi mesi/anni il prezzo di soluzioni AI andrà sempre più in basso fino a costare tanto poco quanto il loro costo computazionale che è un bene per il mercato (almeno inizialmente).
Se vuoi approfondire l'argomento c'è un bel Path sull'AI su Learnn.
Qui ne parlo anche in un video:
Ecco alcuni commenti e risposte interessanti sotto a questo mio post 👇
Per commentare e farmi sapere cosa ne pensi puoi farlo qui.
Grazie mille per aver letto fino a qui.
Se non lo fossi ancora ti puoi iscrivere a questa newsletter qui e fammi sapere nei commenti se ci sono altri temi che vorresti che trattassi la prossima settimana.