Discusión sobre este post

Avatar de User
Avatar de David Alcubierre

Podría ser como dices para 2025, pero creo que a corto medio-plazo dejará de haber tanta diferencia. Mis argumentos:

- Mejores algoritmos pequeños locales: Gemma de Google, Phi de Microsoft, Llama de Meta, Mistral... por no hablar de los que vienen de China.

- Mejores algoritmos diluidos (locales o no): versiones diluidas, con menos parámetros, que funcionan algo peor pero son más baratos (como las versiones mini de OpenAI).

- Abaratamiento del hardware para IA: Nvidia acaba de sacar un pepinazo por 3000$ que junto a un algoritmo local medio te permite acceder a algoritmos medianos en local. También sacó un Jetson a 300$ hace pocas semanas para proyectos de IA.

- Mejores versiones gratuitas: Las versiones gratuitas serán cada vez mejores, heredando los algoritmos que dejan de ser última versión. Esto no nos hace más competitivos que los que pagan, pero en muchos casos sirve para ser lo suficientemente competitivos (depende la tarea).

Mi esperanza es que con el tiempo los algoritmos menores sean cada vez más útiles. Y ese tiempo que tardan en serlo es el tiempo que van a tardar las organizaciones en implementarlos.

Hay un obstáculo previo al de la pasta y es la desconfianza hacia este tipo de tecnologías aún a día de hoy (con razón o sin ella). Por eso mi acento va más hacia lograr tener algo en local que permita trabajar adecuadamente de forma energéticamente eficiente.

Expand full comment
2 comentarios más...

Sin posts