Ahora mismo te diría que sí. Sobre todo si los usos que le tienes que dar van más allá de generar un simple texto. Sigo utilizando chatgpt, perplexity o Claude dependiendo de lo que quiero, pero como digo, con ChatLLM estoy empezando a decantar la balanza hacia este agregador por diferentes motivos que os he explicado. Pero con lo rápido que va todo igual dentro de un mes ha cambiado todo.
Así que hay que cambiar de IA cada mes si se quiere lo mejor? Uau …
Entonces, me pregunto, escribir sobre IA tiene la ventaja de que las personas quieren conocer lo último, pero ese texto ya no servirá de nada dentro de 1 año, verdad?
No solo de IA, en tecnología hace años que una de las habilidades necesarias es la de la adaptación. Cuando hago alguna formación siempre incido en que la herramienta o el proceso que estamos viendo igual en unos meses deja de tener sentido. Nos adaptamos constantemente a nuevas herramientas y tecnologías. Creo que lo interesante es poder adaptarse a lo que surge, a aprovecharlo al máximo. Y con la IA vemos que la velocidad es aún mayor que lo que habíamos visto hasta ahora. Mira todo lo que ha evolucionado está ámbito desde principios de 2022 cuando se dió el pistoletazo de salida con GPT, y sigue dominando el mercado, pero no por ello hay que quedarse con lo primero. ;) Y respecto de la validez de este texto, pues eso, caerá en el olvido como tantos otros, pero creo que ahora merecía la pena compartirlo.
no conocía chatllm, lo probaré. De momento, mi mejor experiencia viene siendo con poe. Por cierto, he visto tmb recomendaciones de hugging face pero no llegué a testearlo aún, lo conoces?
Hugging Face más que un agregador es un repositorio de LLM en abierto. Además de encontrar los principales, hay muchas variaciones con fine tunning para segmentos muy específicos. Normalmente cuando identificas uno que te puede interesar, ya te indica como poder utilizarlo si está disponible a través de alguna herramienta. Lo interesante de Hugging Face, además del repositorio de LLM's son los datasets de entrenamiento, para hacer esos "fine tunning" que comentaba y sobre todo los "spaces" donde podrás encontrar demos operativas de muchos modelos para poder hacer un montón de cosas, como simuladores de notebookLLM y generar el podcast (incluso en español) desde un texto, o cualquier otra cosa que te imagines.
Como sustitutivo a ChatGPT lo veo bien. Porque además de poder tener variedad y poder escoger según la necesidad en cada caso, es interesante poder comparar. Aparte de las caídas, que cada vez van siendo más frecuentes en OpenAI (más de las que dice su https://status.openai.com/).
¿Has probado la opción de agregadores locales? Algo tipo Ollama, LM Studio o GPT4All. Algunos permiten añadir incluso modelos vía API (para añadir modelos de OpenAI o Anthropic).
Hola David, he probado Jan para modelos de texto y Diffusion Bee para modelos de Stable Diffusion cuando lanzaron Flux. Tienen sus ventajas, sobre todo si quieres tener más libertad a la hora de generar determinados contenidos, y también más ventajas en cuanto a privacidad y seguridad, ya que es un modelo local que no pasa ni por api las peticiones y documentos. Pero supone que debes descargar los modelos y tener normalmente un buen equipo para hacerlo funcionar todo. En el caso de Jan, como comentas te permite meter apis y trabajar con diferentes modelos. En todo caso, los veo útiles para opciones muy específicas y los veo con carencias respeto de agregadores como ChatLLM o Poe.
Entonces, son mejores los agregadores?
Ahora mismo te diría que sí. Sobre todo si los usos que le tienes que dar van más allá de generar un simple texto. Sigo utilizando chatgpt, perplexity o Claude dependiendo de lo que quiero, pero como digo, con ChatLLM estoy empezando a decantar la balanza hacia este agregador por diferentes motivos que os he explicado. Pero con lo rápido que va todo igual dentro de un mes ha cambiado todo.
Así que hay que cambiar de IA cada mes si se quiere lo mejor? Uau …
Entonces, me pregunto, escribir sobre IA tiene la ventaja de que las personas quieren conocer lo último, pero ese texto ya no servirá de nada dentro de 1 año, verdad?
No solo de IA, en tecnología hace años que una de las habilidades necesarias es la de la adaptación. Cuando hago alguna formación siempre incido en que la herramienta o el proceso que estamos viendo igual en unos meses deja de tener sentido. Nos adaptamos constantemente a nuevas herramientas y tecnologías. Creo que lo interesante es poder adaptarse a lo que surge, a aprovecharlo al máximo. Y con la IA vemos que la velocidad es aún mayor que lo que habíamos visto hasta ahora. Mira todo lo que ha evolucionado está ámbito desde principios de 2022 cuando se dió el pistoletazo de salida con GPT, y sigue dominando el mercado, pero no por ello hay que quedarse con lo primero. ;) Y respecto de la validez de este texto, pues eso, caerá en el olvido como tantos otros, pero creo que ahora merecía la pena compartirlo.
Muchas gracias, Carlos, por tus amables y detalladas explicaciones…
no conocía chatllm, lo probaré. De momento, mi mejor experiencia viene siendo con poe. Por cierto, he visto tmb recomendaciones de hugging face pero no llegué a testearlo aún, lo conoces?
Hugging Face más que un agregador es un repositorio de LLM en abierto. Además de encontrar los principales, hay muchas variaciones con fine tunning para segmentos muy específicos. Normalmente cuando identificas uno que te puede interesar, ya te indica como poder utilizarlo si está disponible a través de alguna herramienta. Lo interesante de Hugging Face, además del repositorio de LLM's son los datasets de entrenamiento, para hacer esos "fine tunning" que comentaba y sobre todo los "spaces" donde podrás encontrar demos operativas de muchos modelos para poder hacer un montón de cosas, como simuladores de notebookLLM y generar el podcast (incluso en español) desde un texto, o cualquier otra cosa que te imagines.
Como sustitutivo a ChatGPT lo veo bien. Porque además de poder tener variedad y poder escoger según la necesidad en cada caso, es interesante poder comparar. Aparte de las caídas, que cada vez van siendo más frecuentes en OpenAI (más de las que dice su https://status.openai.com/).
¿Has probado la opción de agregadores locales? Algo tipo Ollama, LM Studio o GPT4All. Algunos permiten añadir incluso modelos vía API (para añadir modelos de OpenAI o Anthropic).
Hola David, he probado Jan para modelos de texto y Diffusion Bee para modelos de Stable Diffusion cuando lanzaron Flux. Tienen sus ventajas, sobre todo si quieres tener más libertad a la hora de generar determinados contenidos, y también más ventajas en cuanto a privacidad y seguridad, ya que es un modelo local que no pasa ni por api las peticiones y documentos. Pero supone que debes descargar los modelos y tener normalmente un buen equipo para hacerlo funcionar todo. En el caso de Jan, como comentas te permite meter apis y trabajar con diferentes modelos. En todo caso, los veo útiles para opciones muy específicas y los veo con carencias respeto de agregadores como ChatLLM o Poe.