Episodio 3: La explosión cámbrica de las herramientas de coding asistido por IA
Aníbal Rojas (00:05.794)
Esto es O corres
Freddy Montes (00:07.854)
o te encaramas
Aníbal Rojas (00:10.201)
Ya nos pueden encontrar en ocorres.com, tenemos dominio. Y bueno, me presento, soy Aníbal Rojas y me acompaña el señor Freddy Montes. En este podcast hablamos de el impacto de la inteligencia artificial en la tecnología y el tema de hoy, Freddy, ¿cuál es?
Freddy Montes (00:26.474)
herramientas porque hay muchas.
Aníbal Rojas (00:28.577)
herramientas. Sí, hay muchas y yo creo aquí que el punto fundamental de hacer énfasis en herramientas es, yo no te voy a vender las herramientas. Ese no es el punto acá, ¿OK? Pero sí tenemos que entender que no hay una sola cosa cuando hablamos de las herramientas de inteligencia artificial que nos asisten. Y yo creo que la herramienta que más impacto ha tenido Freddy son las herramientas que ayudan a echar código.
Freddy Montes (00:56.942)
en el desarrollo del software sin duda.
Aníbal Rojas (01:00.857)
Porque fíjate, hay herramientas para product managers, hay herramientas para diseñadores, ¿OK? Pero lo que fue el primer impacto y el impacto que más se ha mantenido es el de las herramientas que asisten la programación,
Freddy Montes (01:14.862)
Bueno, por algo esta semana salió la intención de OpenAI de comprar uno de los editores de códigos asistidos por AI más famosos y aparentemente ya había intentado comprar el otro. Definitivamente hay algo ahí cuando tenemos probablemente la empresa más importante de Inteligencia Artificial intentando comprar editores de código asistidos por AI.
Aníbal Rojas (01:36.827)
Yo no entiendo esa movida, pero pero de nuevo es un síntoma de que efectivamente algo está ocurriendo y promete un montón en el mercado. Fíjense, esto no es un solo tipo de herramientas y tenemos como una gran variedad. Freddy, ¿cómo ves tú este panorama de lo que son los editores, o de código o de las herramientas que asisten a los programadores?
Freddy Montes (02:05.078)
Yo creo que yo lo he separado como en los chatbots, que es como que lo que todo el mundo conoce. Ahí tenemos ChartGPT, Claude, Grok y Gemini como los principales. Dentro de ellos hay ciertas utilidades que te asisten a escribir código. De alguna manera casi todos pueden ejecutar al menos código de frontend. Incluso creo que ChartGPT puede ejecutar Python si no estoy mal.
Aníbal Rojas (02:10.586)
por acá.
Aníbal Rojas (02:31.833)
Sí, ChatGPT Lo que ellos empezaron como el modo de análisis, el advanced de analytics, era Python, era ejecutar Python.
Freddy Montes (02:41.166)
Y creo que Gemini también, si no estoy mal. Y adicionalmente a esto ahora que estos chatbots ya por ejemplo, Claude tiene acceso a tu file system, por ejemplo, con los MCP, con los Model Context Protocol. Y además que, por ejemplo, ChatGPT en la versión desktop de Mac te permite conectarte directamente a tu editor de código. Llámese Cursor o VS Code.
Aníbal Rojas (02:56.355)
Correcto. Correcto.
Freddy Montes (03:09.384)
incluso a tu terminal si usas, por ejemplo, Warp. Entonces, ya de por sí los Chatbots tienen cierto nivel de asistencia a la escritura de código. Luego de esto tenemos los que están en la nube, que son editores de código que están en la nube. Entonces tenemos uno de los más famosos, V0, de la gente de Vercel Tenemos Bolt, StackBlitz, que era la otra empresa, que básicamente Bolt se comió StackBlitz como producto completamente.
Aníbal Rojas (03:23.3)
Mm-hmm.
Aníbal Rojas (03:29.624)
también está bolso.
Aníbal Rojas (03:34.715)
¿Hmm?
Freddy Montes (03:38.882)
ya StackBlitz pasó como a segundo plano. Tenemos Replic y Lovable son como el top 4 de los más populares.
Aníbal Rojas (03:48.283)
Sí, son como los que están más en las redes sonando y son los que tienen más comentarios y como más gente siguiéndolo.
Freddy Montes (03:56.876)
Hay otros por ahí, pero esos son como el top 4.
Aníbal Rojas (04:00.153)
Sí, efectivamente. Y el otro gran grupo es el de las herramientas que son son IDEs, que son ambientes de desarrollo más clásicos, por llamarlos de alguna forma, que son una experiencia muy conocida al desarrollador y donde como que empezó todo, porque todo empezó con Github Copilot para la programación. Y entonces tenemos ahora una diversidad de herramientas que incluyen, por ejemplo, Windsurf
¿OK? Cursor... Creo que Cursor sigue siendo el más famoso y uno de más populares, ¿OK? Sin embargo, para mí también hay otra categoría de cosas que divergen un poco de lo que es el IDE, ¿OK? Entonces, por ejemplo, la gente de Antropix sacó Claude Code y Claude Code es una herramienta que se ejecuta en el terminal. ¿Cómo es que se llama la de OpenAI? ¿Se me olvidó?
Freddy Montes (04:54.126)
La de OpenAI se llama Codex.
Aníbal Rojas (04:56.475)
Muy en esa misma tónica de que es una herramienta que se ejecuta en el terminal y y no tienes realmente una interfaz con con un árbol con los archivos y todo ese tipo de cosas.
Freddy Montes (05:10.656)
Y dentro de esas, también para mí entra lo que hizo Warp. Warp es una terminal, es literalmente una terminal que de por sí era muy buena, muy rápida y muy configurable y tiene un montón como de add-ons que uno puede usar. Ellos tienen como notebooks y tienen como shortcuts. Tienen un montón de cosas. Cuando empezó todo, cuando los modelos empezaron a hacerse populares y los APIs, ellos empezaron a integrar AI en...
Aníbal Rojas (05:16.251)
Mm-hmm.
Freddy Montes (05:38.814)
en su software, digamos, ¿no? Entonces era como que, bueno, lo vamos usar para adivinar el siguiente comando que quieres ejecutar basado en tu historial y cosas así. Pero recientemente ellos lanzaron el agente. Y el agente es súper interesante porque literalmente funciona parcialmente como Claude Code y como Codex. O sea, tú le puedes empezar a decirle al agente, vamos a crear una aplicación aquí de Next.js y él empieza a ejecutar comandos y tú vas controlando lo que va pasando. Pero...
Aníbal Rojas (06:00.556)
Mm-hmm.
Freddy Montes (06:07.916)
Creo que todavía, y estoy seguro que lo van a hacer pronto, todavía no cambia los archivos. O sea, todavía no han llegado al punto de empezar a escribir archivos. Hasta donde yo sé.
Aníbal Rojas (06:17.155)
No, yo creo que sí, chamo. Yo creo que... Yo creo que juraría que la gente de Warp ya edita.
Freddy Montes (06:22.922)
Ok, yo te creo porque yo no le he probado lo suficiente. Yo siempre lo pruebo como en operaciones de terminales, como necesito hacer un request con este Bearer Token y extraer la respuesta de esta manera. Yo lo uso mucho como eso.
Aníbal Rojas (06:29.755)
Mm-hmm.
Aníbal Rojas (06:36.187)
No, no, estoy seguro. Me acabo acordar y estoy seguro, porque yo hice una prueba y arranqué algo desde cero. Arranqué un proyecto desde cero y lo generó, ¿OK? Fue una experiencia muy parecida a la de... la la... efectivamente a la de Claude Code o la del Codex de OpenAI.
Freddy Montes (06:51.918)
Entonces, hagamos esto. Ya que pusimos, ya que hablamos de las categorías, yo siento que cada una de estas herramientas: número uno, pueden funcionar mejor en diferentes etapas del desarrollo de software, del ciclo de desarrollo de software. Entonces, ¿por qué no comenzamos a hablar del tipo de uso que nosotros le hemos dado a estas herramientas? Comenzando desde lo más general que son los chatbots
Aníbal Rojas (06:59.384)
Correcto.
Freddy Montes (07:21.39)
y luego por ahí vamos bajando con el resto.
Aníbal Rojas (07:24.379)
Perfecto. A mí me gusta el tema mucho de los chatbots porque es lo que la gente tiene más a la mano, es más accesible, ¿no? Yo creo que muy poca gente entendió en su momento y todavía hay mucha gente que son gente que no tiene que ver con la programación, que es que efectivamente era muy fácil para un chatbot echar un código, en el caso, por ejemplo, OpenAI Python, y que ese código era capaz de realizar unos cálculos que el LLM no puede realizar, porque los LLM son buenos lenguajes.
y hacen unas cosas muy raras para para echar cálculos, entre comillas. Pero el hecho de que a alguien se le ocurriera que el workaround era generar código Python para entonces hacer un análisis de datos y entonces poder... Y que la respuesta de eso iba al contexto, a mí me parece que fue una genialidad y abrió mucho la cancha. Pero, sin embargo, aquí entra un tema que para mí es crucial, porque es que, en Claude como tal, en...
en chat GPT o en el LLM que ustedes prefieran, ese no está específicamente entonado un sistema, no es un sistema que está preparado para ayudarte a echar código, aunque pueda generar código.
Freddy Montes (08:41.75)
Ahora, lo que a mí sí me gusta, viéndolo desde el lado opuesto, es que precisamente como es tan general su uso, o sea los los chat bots no están hechos específicamente para alguna tarea, sino que tú le vas a decir qué tarea se va especializar. Entonces, como el desarrollo de software es tan amplio como profesión y hay tantas maneras de resolver problemas, yo creo que lo que lo hace poderoso es que los usuarios más avanzados...
Aníbal Rojas (08:55.291)
Correcto.
Freddy Montes (09:10.91)
pueden hacer fine tuning para hacerlos hacer tareas específicas, muy específicas para su caso de uso personal. Y es por eso que hemos visto cosas como que Gemini lanzó Gems, que básicamente es una manera de hacerle un poquito de fine tuning a un chat o crear un chat muy específico para tu caso de uso. Claude tiene Projects, Grok tiene Workspaces.
Aníbal Rojas (09:24.763)
Freddy Montes (09:36.27)
Chat GPT tiene GPTs, eso fue como el primero que lanzaron y ahora tiene proyectos. Entonces, todo esto te permite hacer unas configuraciones como muy específicas para tareas. Entonces, uno de los casos que yo le doy a todos estos proyectos es que, por ejemplo, yo le paso toda la documentación pública del producto donde yo trabajo. Yo literalmente lo convertí en un TXT gigante, que son como 20 megas o algo así, y yo eso se lo paso.
Aníbal Rojas (09:39.532)
y proyectos ahora.
Aníbal Rojas (09:57.147)
Mm-hmm.
Freddy Montes (10:04.526)
y a partir de ahí yo le empiezo como a pedir cosas. Entonces cuando yo estoy planeando un feature nuevo y estoy como peloteando las ideas y tal, yo lo hago con estas herramientas porque tienen todo el contexto de lo que ya yo tengo y de cómo funciona. Entonces, antes de empezar a echar código, la parte de planning yo uso los chatbots.
Aníbal Rojas (10:26.779)
Y fíjate que a mí me gusta mucho tu comentario porque hay un elemento que es fundamental aquí y que yo creo que el vibe coding metió mucho ruido, es que si tú no creas un contexto adecuado, rico en información y no le das unas indicaciones muy claras y específicas a estos sistemas no van a haber muy resultados y tú estás demostrando, oye mira yo tomo la documentación pública de mi producto, ¿ok?
Convierto eso en un archivo en texto plano que que un LLM lo puede indexar. De hecho, el caso de Gemini, podría cargar todo eso en memoria. Que es una de cosas que más me gusta a mí de Gemini, que es la ventana de contexto. Y mira, si ya yo tengo un proyecto configurado o como se llame, un workspace o como lo quieran llamar, un GPT, ya yo tengo un trabajo adelantado que no tengo que volver a hacer cada vez, sino que yo preparo un entorno en el cual yo puedo empezar inmediatamente a ser productivo,
porque ya el LLM tiene un montón de información disponible.
Freddy Montes (11:30.37)
Sí, eso es precisamente lo que lo hace tan valioso y que además siempre puedes seguir agregando documentación. Si yo a veces, por ejemplo, estoy trabajando en un feature, termino un documento, yo lo subo ahí. Entonces ya le estoy agregando más contexto. O yo a veces, yo hago mucho competitive research. Yo analizo mucho la competencia. Y los findings que yo hago, yo los tiro ahí también. De manera que cuando yo le esté preguntando cosas como: yo estoy desarrollando esto y mi intención es esto, mis usuarios.
funcionan así y tal. ¿Qué te parece esta idea? Él tiene todo ese contexto para responderme. Y eso, aunque no es escribir código, sigue siendo desarrollo de software.
Aníbal Rojas (12:09.211)
Y me voy a acercar un poquito a la escritura de código. Yo una cosa que hago mucho es hacer un deep research, por ejemplo, y de una vez que él me compare, mira, librerías con estas condiciones. Yo quiero librerías, entonces, mira, compáramelo desde el punto de vista de cuán bien están actualizadas, la calidad de la documentación. Y claro, él toma un montón de información que de otra forma, para mí, serían mil tabs abiertos en un navegador. De hecho, Perplexity, para mí, sigue estando en el sweet spot de los resultados.
La gente habla muy mal de Perplexity, pero a mí me gusta mucho el nivel del Deep Research de Perplexity. No es el cuarto de hora de chat GPT ni de Gemini, pero llega el punto, está como en el sweet spot para mí Perplexity. Y ese trabajo previo de investigación de librería, mira cuál es el patrón que podría aplicar aquí, oye, ¿cuáles son las mejores prácticas alrededor de construir esto?
a mí me deja un trabajo allanado que después cuando a la hora de programar es muy útil.
Freddy Montes (13:13.558)
Sin duda. es una de estas cosas que antes no se hacía. O todavía siento que hay equipos que no lo hacen porque realmente tomaban mucho tiempo. Y muchas veces los equipos es como que no, mira, el sprint tuyo dura una semana, esto hay que tenerlo listo en una semana o lo que sea y tal. Entonces la gente lo que hacía era que brincaba al código de una vez. No siempre resulta bien. Eso es harina de otro costal. Pero el punto es que ahora con estas herramientas nosotros podemos agarrar y en una hora descubrir tanta información y tener tantos insights que nos va a permitir.
desarrollar o solucionar el problema que nos plantearon con mejor approach que realmente no vale la pena no hacerlo. O sea, antes yo decía como bueno, tenemos que manejar trade-off. No podemos hacer un deep research manual, investigar 400 páginas, 20 mil librerías, busquemos el top ten y agarramos las dos primeras, lo que sea. Pero ahora con estas herramientas, literalmente, por ejemplo, en Perplexity es inmediato y en Chat GPT, en Gemini 15 minutos. Tenés un research
Aníbal Rojas (13:57.499)
Mm-hmm.
Freddy Montes (14:13.44)
de lo que vos querás y necesitás, que ya solamente con tener eso, que además, cabe destacar que te sirve como contexto para promptear para otras cosas.
Aníbal Rojas (14:22.051)
Exactamente. Exactamente. Tú agregas ese ese archivo en tu code base, en un Claude.md, Markdown o cualquier otra cosa de esas, y ya tienes un contexto rico en tu repositorio. Yo quisiera enfatizar dos cosas con respecto a estos productos que son los chats más generales. Primero...
Ya tú lo mencionaste, que es el tema de que, por ejemplo, pueden agarrar y acceder al file system. El caso específico de Claude con el MCP fue como el que abrió la puerta a eso. Entonces, yo puedo agarrar y solamente con Claude, sin atener más nada, yo puedo pedirle que revise un repositorio y mira, hace cosas interesantes y útiles. La segunda que yo quisiera enfatizar aquí es que, además, los últimos lanzamientos de modelos en los últimos meses han tenido mucho énfasis en modelos que están...
Fine tune out para programar en lógica y programación. Y eso abarca también lo que está disponible en Chat GPT, en Claude, en todos los demás modelos.
Freddy Montes (15:17.038)
Sí.
Freddy Montes (15:27.366)
Y es por eso que esto es una de las cosas que conversábamos en el episodio anterior, de que normalmente agarran este modelo y dicen, bueno, hacé este ejercicio en Python, donde ponen la bolita a dar vueltas en un octágono o una vaina, y es como que, OK, cool, lo puede hacer, pero realmente ahí no está el valor. El valor está en usarlo vos Entonces, por ejemplo, también con lo de los canvas, que ellos abren.
Aníbal Rojas (15:37.603)
Sí, lo mismo.
Aníbal Rojas (15:43.79)
No demuestran nada.
Aníbal Rojas (15:51.675)
Gracias.
Freddy Montes (15:54.19)
Por ejemplo, uno de los usos que lo doy mucho en Claude es, tengo esta data de telemetry de mi producto, de cómo lo usan y son decenas y decenas de rows de una base de datos. Ok, yo puedo sentarme con Python y analizar eso manualmente y me va llevar un rato, incluso si lo hago con Cursor y tal, pero yo literalmente puedo hacer eso, tirárselo a Claude y decirle, estoy desarrollando este feature, dime que, no sé, por ejemplo, cómo el usuario
está usando este otro feature que está relacionado con este. Y me crea unos dashboards increíbles, que son desechables.
Aníbal Rojas (16:31.131)
eso es muy loco, eso es muy loco, o sea, valor que tiene esto de que tomemos data y sin ser científicos de datos, sin ser analistas, oye, podamos tener un primer análisis acerca de, en este caso, comportamiento de los usuarios en cierto contexto, oye, eso es un valor gigantesco.
Freddy Montes (16:50.83)
Y yo no estoy diciendo que eso te sirve para luego tú decir soy analista de datos y ahora este dashboard es el mejor del mundo. No, cero. Pero hay cosas que yo necesito entender. O sea que con el simple hecho de entender esto, un par de cosas de esta data, a mí me va a permitir hacer mi trabajo mejor. Ya yo estoy feliz. O sea, ya nada más con eso.
Aníbal Rojas (17:08.683)
Y para mí, además lo interesante aquí es que, conecta con el trabajo, es adyacente la programación, porque de nuevo, la programación, el código no tiene un valor per se, sin estos, sin estos tipos de cosas no vamos a poder avanzar. Entonces fíjate, movámonos, yo diría que vayamos con los IDEs que son los más, como los más, la cara más popular y donde hay como ahorita la batalla, ¿no?
de ver quién se lleva al mercado.
Freddy Montes (17:40.782)
Bueno, Copilot, el más popular, bueno no sé si todavía seguirá siendo el más popular.
Aníbal Rojas (17:50.875)
Mira, te quedaste cortado y tienes razón porque claro, GitHub Copilot empezó y fue como que ¡Oh Dios mío! y todo el mundo ¡Oh GitHub Copilot! y parecía que era invencible y de repente vino la gente de Cursor corriendo desde atrás, brincó la cerca y se les metió en la casa y los destronó literalmente, ¿ok? por meses.
Freddy Montes (18:14.04)
Pero es que fue increíble porque es que ni siquiera era como que... O sea, yo ni siquiera entiendo de dónde salieron. O sea, fue algo como que... De la nada, o fue literalmente de la nada. Y bueno, una cosa muy particular que tienen estos IDEs nuevos, Cursor, Windsurf también Replit y todos estos, es que son equipos pequeñitos. Son 10 personas que lograron hacer esto.
Y que en las entrevistas ellos mismos dicen, nosotros usamos nuestra misma herramienta para construir la herramienta, ¿no? Que no hay nada mejor en producto que hacer eso, que hacer dogfooding ¿verdad? Es como el santo grial de desarrollar productos, o sea es imposible que te quede mal. Pero bueno, entonces, Copilot, ya sabemos, GitHub, GitHub es de Microsoft. La verdad es que la primera vez que yo probé Copilot sí se sintió muy bien. O yo si sentí como que, OK, el desarrollo de software, o sea,
Aníbal Rojas (18:47.109)
el dogfooding es perfecto
Freddy Montes (19:08.142)
Yo sí sentí como la escritura de código está cambiando. Sí, fue algo como que yo dije, no fue el iPhone Moment de la escritura de código con AI. Para mí, el iPhone Moment fue cursor. Para mí, personalmente. Pero sí fue algo como, oye, esto es nuevo, esto está cool. Y, obviamente yo siempre estoy pensando, yo siempre estoy pensando no lo que está pasando ahorita, sino hacia dónde vamos. Yo dije, si esto es la primera versión de esta nueva
Aníbal Rojas (19:11.181)
Cambió, para decir un punto de inflexión.
Aníbal Rojas (19:24.155)
Ok
Freddy Montes (19:37.651)
metodología de escribir código de estos nuevos usos, ¿qué va a pasar?
Aníbal Rojas (19:46.299)
Y entonces, yo nunca me he metido con Copilot cuando... o sea, el equipo que yo tenía, sí, yo empuje a que utilizaban Copilot, que era lo que estaba disponible, además, Era lo que estaba disponible. Recuerdo que antes de Copilot, los desarrolladores copiaban y pegaban desde Chat GPT muchísimo, pero en ese momento yo no estaba activamente metiendo manos en código ni intentando desarrollar algo yo mismo, ¿no? Y...
y entonces yo llegué más tarde, después a esto, ya llegué cuando hay un cursor, hay un windsurf, y empiezan a haber muchas más opciones, y sobre todo para mí está el tema de los modelos. Ahora, yo quisiera puntualizar aquí para la gente que nos está escuchando que tenemos algo que no es un modelo nada más. Agarramos Visual Studio Code, que es open source, lo forqueamos.
montamos encima de eso un sistema que nos permite tener el bot ahí empotrado y que el bot tenga el contexto, pero no solamente tenemos un LLM, ¿OK? Empotrado, sino que tenemos un sistema que en general es un sistema de agentes que tienen diferentes responsabilidades cuando uno hace un requerimiento, bueno, eso se pelotea internamente, no sabemos la implementación exacta de estos casos y...
pero tenemos un sistema que es completamente distinto, donde hay una gente que lo que está haciendo es entonando estos sistemas de agente, todo lo que es el rack del código, las políticas acerca a la memoria, y eso es la riqueza que le agregan a un IDE.
Freddy Montes (21:19.638)
Sí, y hay algo aquí que quiero antes de seguir porque lo debimos haber dicho al principio, pero es, tiene como casi todos los que Cursor, Copilot y Windsurf tienen como estas tres maneras de interactuar, que son, tú tienes Inline Chat, que es, tú seleccionas un pedazo de código, llames una función, una variable, lo que tú quieras, y tú abres con un atajo de teclado, que creo que es Command I tú abres una pequeña ventana de chat.
Aníbal Rojas (21:37.807)
Mm-hmm.
Freddy Montes (21:48.938)
Y tú ahí le dices, cambia esto. O sea, haz esto aquí. Haz este cambio. ¿OK? También puedes hacerle preguntas sobre eso. Por ejemplo, a mí me tocó hace poco hacer un SDK de PHP. Yo nunca he usado PHP tanto. Y estaba intentando como que, OK, necesito desestructurar un array. ¿Qué métodos tengo que usar de PHP? Entonces habían tres. Una cosa así, dependiendo de lo que quisiera hacer. OK. Mira, ¿cuál es este? ¿Cuál tengo que usar aquí? Eran como preguntas bien específicas.
bien al punto de esa línea de código. Entonces el contexto era, yo sé que él por detrás tiene el código indexado, pero es eso. Luego tienen chat que ya está medio desapareciendo y el chat es, te lo abro al lado derecho o al lado izquierdo, depende de cómo lo configures y es como que estoy chateando con este archivo. Ok, es como que este archivo necesito escribir una función nueva o cambiar una función que existe y tal.
Aníbal Rojas (22:24.795)
Correcto.
Aníbal Rojas (22:39.259)
Correcto.
Freddy Montes (22:44.588)
Ya eso no se está usando mucho, pero eso era como lo primero que salió en cursor específicamente. Y luego salió el agente. Y ese también fue un gran momento porque el agente lo que hacía era que vos le decías algo y él cambiaba varios archivos al mismo tiempo. Entonces vos podías hacer como cosas un poco más grandes. En lugar de cambiar una función o un método o una clase, vos podías pedir algo.
que iba a interactuar o que iba a cambiar varias clases y diferentes archivos.
Aníbal Rojas (23:18.011)
porque a mí así es como funciona el software, así es como tú construyes software, tú haces módulos, tú distribuyes responsabilidades y esas cosas interactúan entre ellas y tocar un solo archivo tiene en general muy poco valor, a menos que estés buscando un bugcito o una pequeña optimización. Y yo recuerdo...
Freddy Montes (23:34.732)
Sí, pero para llegar ahí probablemente pasaste por un camino larguísimo, pero te tocó llegar a vos ahí.
Aníbal Rojas (23:39.47)
correcto y yo recuerdo que al principio además estos modelos agarraban y todavía todavía porque de nuevo aquí no estamos vendiendo modelos aquí estamos vendiendo inteligencia artificial y la realidad es que esto le falta un montón porque bastantes errores que cometen ok pero al principio de verdad que tú le mandabas era como que oye mira yo quiero que me revise el dedo gordo del pie y terminaba con el bicho montado en el cuello y bueno qué le pasa a esto no
Freddy Montes (23:54.765)
Sí.
Aníbal Rojas (24:06.171)
y tocaba un montón de archivos y echaba cambios para atrás. Yo creo que eso ha cambiado muchísimo en los últimos meses. Ha madurado mucho.
Freddy Montes (24:06.337)
Era una locura.
Freddy Montes (24:14.7)
Sí, ha madurado muchísimo. Pero también ha pasado que, por ejemplo, a veces como que los modelos se vuelven medio locos en alguna actualización o en algo. Porque, por ejemplo, cuando OK, hasta literalmente hace tres semanas, Claude era el rey de los modelos de escribir código. Era el rey. O sea no había competencia. OK, bueno, Gemini está ahí de verdad muy bueno. Pero bueno.
Aníbal Rojas (24:38.255)
Para mi sigue siendo el rey Freddy.
Freddy Montes (24:44.078)
Claude 3.5, o sea salían modelos de Gemini, salían modelos de OpenAI y la gente en Cursor y en Windsurf seguía usando Claude 3.5. Salió Claude 3.7 y obviamente las expectativas estaban como que por los cielos porque todo el mundo decía, imaginate qué tan bueno va a ser ahora.
Aníbal Rojas (24:59.757)
Claro, Es que todo el mundo era como que oh my god, esta actualización de Claude tiene que ser la mama.
Freddy Montes (25:06.582)
Sí, y realmente no yo no sentí un cambio tan tan abismal. Y de hecho hubo como un par de semanas que Claude 3.7 se volvía loco. Entonces yo le decía necesito actualizar que ahora validar el email, por decir un ejemplo. Y a lo que yo miraba el de nuevo había cambiado tres archivos y era como que what? Y eran como vainas que no tenían nada que ver. O sea, era literal como que el bicho decía como no, sí.
voy a cambiar, te voy validar el email pero esto que tenéis por allá también no me gusta y te lo voy a arreglar y era como que entonces precisamente empecé a escuchar de que Gemini 2.5 Flash todo el mundo empezó a decir como que no, esto está mejor, no sé qué y en verdad lo empecé a probar y hubo dos cosas que me sorprendieron número uno, súper focalizado en lo que es los cambios que hacía
Aníbal Rojas (25:52.011)
¿2.5 Flash ya disponible? ¿o es 2.5 Pro?
Freddy Montes (25:56.782)
puede ser, no me sé los nombres de los modelos, perdón, así soy muy malo. Pero el último Gemini que salió y yo creo que es Flash, de hecho lo voy a revisar de una vez aquí.
Aníbal Rojas (26:11.993)
dale dale dale porque además aquí una cosa interesante hablando hablando de modelos que ya que vimos ahí que es que
Freddy Montes (26:17.326)
No, es como vos decís, es Gemini 2.5 Pro 0325, es decir, marzo 2025. Es ese.
Aníbal Rojas (26:20.827)
Correcto.
Porque creo que acaban de anunciar Gemini 2.5 Flash, ¿OK? Porque, 2.5 Pro es un modelo que tiene razonamiento, entonces es lento y consume un montón de tokens.
Freddy Montes (26:35.667)
De hecho aquí en Cursor estoy viendo que ellos tienen uno que se llama Gemini 2.5 Pro Max como el iPhone y Cloud Sonnet Max. Pero yo la otra vez los intenté activar y me dijo como que tu plan no los incluye.
Aníbal Rojas (26:51.163)
Ah, eso está conectado con el plan tienes que meterle 200 dólares a cada uno seguro.
Freddy Montes (26:55.776)
Sí, de hecho me dice como que cada request son 0.05 dólares. ok. Y lo otro también, ya que estamos como hablando de las novedades, es que recientemente cuando salieron los modelos de razonamiento, entonces ahora tú puedes activar razonamiento en el agente dentro de tu editor. Ahora, mis resultados activando razonamiento no han sido buenos, sobre todo para cambiar código. Es como que le da mucha vuelta al asunto y la pierde, pero...
para planear el código que voy a escribir, es una locura
Aníbal Rojas (27:26.445)
Uff, es otra cosa, de verdad, de verdad, o sea, la capacidad, si ustedes van a hacer un plan técnico o un plan o un PRD, y quieren arrancar bien, es como un modelo de razonamiento, es impresionante lo que ayuda a eso.
Freddy Montes (27:40.844)
Desing Doc eso.
Freddy Montes (27:46.916)
Entonces, ahora que estamos hablando ahí, Hay una cosa súper impor... Como estábamos diciendo temprano, ¿no? El contexto. El contexto es lo que hace que esto sea exitoso o no. Eso es plain and simple. Y yo por eso le llamo context drive and development. Para mí es que tanto contexto le doy. Es como que eso es lo que... Como yo lo defino, Y entonces, todos estos IDEs tienen rules. De una manera u otra tienen reglas.
Aníbal Rojas (28:03.587)
Me gusta, me gusta este tema, está bueno.
Freddy Montes (28:15.02)
Y a mí lo que me gusta mucho es que es como una cascada de reglas. Es decir, tú puedes poner reglas a todo el IDE que va afectar todos tus proyectos.
Aníbal Rojas (28:15.215)
Correcto.
Aníbal Rojas (28:21.723)
en la raíz del proyecto y en el IDE también.
Freddy Montes (28:25.678)
No, en el IDE primero, luego en la raíz de tu proyecto y luego tú puedes poner un set de rules que uno los jump, que por ejemplo mucha gente mete Markdowns. No.
Aníbal Rojas (28:36.775)
De hecho, en Claude Code, tú puedes tener un Claude.markdown en una configuración general tuya para todo global. En la raíz del proyecto y en cada directorio del proyecto, tú puedes agregar un archivo y él va a tomar eso como un archivo de referencia acerca de ese contexto específico. tenemos desde contexto que es muy amplio hasta el contexto más granular conectado con tu código.
Freddy Montes (29:05.366)
eso es brutal porque el nivel, a ver, nivel de personalización que tú le puedes hacer a tus proyectos es increíble, entonces yo lo que he visto mucho, ya por ejemplo ya hay curso rules. directory, tú vas ahí, tú puedes conseguir curso rules de proyectos con Next.js, TypeScript y ChatCN o rules de proyectos de Laravel, entonces son, les recomiendo a muchos que agarren esos rules
Aníbal Rojas (29:26.019)
Al cual.
Freddy Montes (29:33.664)
los usen como base, como una base, y a partir de ahí ustedes hagan sus propios rules.
Aníbal Rojas (29:38.979)
Y yo aprovecho que tú lo estás diciendo, oigan, no copien y peguen cosas directo de internet, no hagan eso, ¿ok? Lean, lean, tienen que leer, tienen que agarrar y validar ustedes, ¿ok? Esta Esta es la época de tener sentido crítico.
Freddy Montes (29:56.022)
Sí, esta es la... Sin duda. Que de hecho... Ok, entonces, superimportante lo de los rules porque le podéis ir dando contextos de tu proyecto y de tu cosa. Entonces, una de las cosas que para mí lo que mejor ha funcionado es... Empiezo con ChartGPT, Claude, Gemini, Grok, lo que sea. Empiezo a hablar de mi proyecto como si fuera otro developer. Y le empiezo a decir mira, tenemos que construir esto y esta es la idea que yo tengo. Mira, hay algún edge case que yo no sé, que no me estoy perdiendo.
Hacé una investigación sobre los competidores, a ver cómo lo están haciendo ellos, trae todo, es como una conversa y voy como sacando un documento más o menos de las ideas que yo siento que van a funcionar y todo eso. Luego de eso yo lo convierto en lo que vos estabas diciendo, que es un PRD, que es un Product Requirements Document. Lo trato de hacer lo más corto posible. Eso yo se lo paso a Cursor. Y yo antes de, hay gente que ahí para y empieza a trabajar con ese PRD. Pero yo hago otra cosa y es que yo le digo al la agente,
lee ese PRD y redáctame un plan de cómo lo desarrollarías. ¿Ok? Técnico.
Aníbal Rojas (30:58.135)
Exactamente, un plan técnico. Inclusive yo le digo, asume que eres un engineer manager, literalmente, y que tienes un equipo muy junior al que tienes que explicarle con gran nivel de detalle. Eso me ha resultado un montón porque entonces la explicación de verdad es una guía muy valiosa para el LM.
Freddy Montes (31:19.254)
Y esa misma guía, entonces yo le digo, OK, la guardo como un markdown. Hay gente que la guarda en varios pedazos. Yo la guardo como en uno solo, dependiendo del tamaño del proyecto. Y luego le digo, OK, agente, vamos a empezar a desarrollar. Leé esa guía y empecemos por la fase 1, paso 1. Y él empieza a desarrollar eso. Entonces, yo voy en el agente poco a poco desarrollando cada paso. ¿Es perfecto? No es perfecto. Pero yo mismo le voy pronteando hasta ahorita. Yo mismo le voy pronteando mejoras.
Aníbal Rojas (31:44.762)
ahora
Ahora, fíjate, hay dos cosas que quiero nombrar. La primera, para que no se nos olvide, el contexto. Si ustedes están chateando con el agente dentro de un IDE y eso empieza a no ir a ningún lado, ese contexto ya está piche, eso tiene demasiada información y se perdió. Esa es mi experiencia. Miren, agarren y los chats son gratis. Arranquen un nuevo chat, vean que quieren recuperar del último que estaban haciendo. A veces yo les pido que me haga un resumen de lo que aprendió y para que continúe.
Freddy Montes (31:49.08)
Ajá.
Freddy Montes (32:17.442)
Ya se pueden referenciar los chats en cursor. O sea, tú puedes empezar uno nuevo y referenciar el anterior. Sí.
Aníbal Rojas (32:20.103)
no sabía! ¡Guau! O sea, que el mismo Cursor nos está generando un resumen del chat anterior.
Freddy Montes (32:27.5)
Correcto. Entonces vos por defecto empezás a uno nuevo y decís, OK, en el chat anterior quedamos en y me mencionas el chat. Entonces sigamos con y sigue con los otros.
Aníbal Rojas (32:35.483)
En Claude Code hay una opción de... mira limpia el contexto o genera un resumen del contexto también. Es una técnica que está siendo popular. Entonces, esa es importante. Ahora, yo quiero mencionar esta porque a mí me parece que aquí hay algo muy interesante. Están empezando a emerger unos MCPs, unos Model Context Protocol, que son herramientas para los LLM, y que lo que hacen es...
Freddy Montes (32:44.429)
Sí.
Aníbal Rojas (33:03.969)
darle sistemas de gestión de tareas a los LLM. Entonces, uno muy famoso por ahí es Taskmaster. No lo he probado todavía, pero básicamente Taskmaster es un sistema de prompts que te permite que el LLM tenga un agente a su disposición que está especializado en programar el proyecto. Entonces, es decir, ¿cuáles son las grandes partes del proyecto? ¿Cuáles son las tareas que están pendientes?
y entonces se genera un archivo y ese archivo se va gestionando dentro de tu código y va marcando qué es lo que se hizo, qué es lo que no se hizo a través de un MSP que hace esa parte y los resultados parece que son muy buenos, ¿ok?
Freddy Montes (33:43.638)
Por cierto, otra cosa que se puede hacer, tú le puedes decir al mismo agente de Cursor y asumo que de Windsurf también, yo no soy super usuario de Windsurf que a medida de que vaya desarrollando, vaya actualizando los rules, los documentos de rules. Entonces, por ejemplo, si él instala una nueva librería, métela en la listado de librerías. No. Por cierto, una cosa que funciona súper bien es en tus rules, pon la estructura de archivos de tu proyecto.
Aníbal Rojas (33:56.77)
correcto
Freddy Montes (34:09.888)
dónde van los componentes, dónde van los servicios, dónde van los hooks, dónde va el backend dónde va el frontend lo que tengas que hacer. Súper importante eso.
Aníbal Rojas (34:17.209)
muy bueno muy bueno fíjate fíjate una cosa Freddy para irnos moviendo no para irnos moviendo aquí en este caso para meter un tema de discusión tú has visto rock rock rock no sé se pronuncia Roo o ru code que es un fork de que es un fork de Cline
Freddy Montes (34:37.486)
He visto Cline pero no he visto ese.
Aníbal Rojas (34:40.793)
Bueno, este es un fork de Cline Yo no conozco Cline pero aquí me parece interesante que es un enfoque... Primero estamos hablando de dos proyectos open source. Entonces, uno puede entender que está pasando por debajo. Y entonces, ¿qué es lo que tiene este Roo Code que es... A mí me parece fascinante. Él tiene muy explícito los roles. Entonces, él tiene un rol que es arquitecto, tiene un rol que es programador, tiene un rol que es QA, y tú puedes agarrar...
y, inclusive, creo que conectar los roles, por ejemplo, con modelo. Entonces, por ejemplo, yo creo que el arquitecto lo corra con Sonnet y que le dé thinking a Sonnet. Entonces, eso es más potente, ¿OK? Y tú puedes agarrar y tú ves los prompts base de cada uno, los prompts del sistema de cada uno, y tú puedes editarlos. Entonces, he visto gente, por ejemplo, que agarra y dice, mira, yo no uso MSP, y entonces agarro y quito toda esta parte y me ahorro una cantidad gigantesca de tokens. Porque hay otra cosa. Con...
con Cursor, con Windsurf etcétera, tú no ves la cantidad de tokens que tú estás quemando. Tú lo que te haces es pagar.
Freddy Montes (35:44.706)
No. Tú pagas tus 20 dólares. De hecho, Windsurf recientemente esta semana cambió el modelo de precios porque el modelo de precios de ellos era demasiado complicado. ellos eran el modelo de precios de ellos era como una especie de por uso, pero entonces era como que cada vez que enviabas un mensaje, ellos te disminuían tu capacidad de enviar mensajes. Era una loquera, era súper incluso confuso de. Sí.
Aníbal Rojas (35:52.187)
y un modelo de precios.
Aníbal Rojas (36:09.499)
Y hay diferentes tipos de mensajes que sí son los mensajes que requieren más...
Freddy Montes (36:14.506)
Era una loquera, pero ellos lo cambiaron recientemente. Windsurf está en 15 dólares, Cursor está en 20 dólares, Copilot...
Aníbal Rojas (36:22.509)
Pero esa plata no te va a permitir hacerlo todo. Siempre tienes que agarrar y meterle más platica, y recargar porque los tokens se acaban. Y aquí hay una diferencia, porque las otras herramientas son muy explícitas. Tú estás usando Claude Code y tú ves cómo los tokens se van consumiendo. Y te cuesta un dólar aquí y dos dólares allá.
Freddy Montes (36:40.238)
Sí, de hecho Cline Cline cada vez que tú haces un request o un chat o envías un mensaje, él te dice 0,01 0,009
Aníbal Rojas (36:49.941)
Pregunta para ti Freddy, ¿tú crees que estos precios de... para cerrar el capítulo de los IDES, ¿tú crees que los precios de un copilot, tú crees que los precios de windsurf, de cursor, son precios realistas o están quemando capital en... ni de vaina?
Freddy Montes (37:02.84)
o están quemando capital sin duda. Sin duda. Yo creo que ellos están quemando capital en el sentido de que como los modelos cada vez se hacen más baratos, en algún punto, en algún punto van a llegar a un equilibrio. Y también es que estas herramientas son ridículamente sticky. O O sea, el product stickiness de esta herramienta no hay vuelta para atrás. O sea, no existe, no hay nadie ahorita que te pueda decir, sino yo ahora quiero programar sin esto.
Aníbal Rojas (37:11.971)
van a llegar muy libres.
Aníbal Rojas (37:19.521)
No, no hay vuelta atrás.
Aníbal Rojas (37:31.009)
Eso es como tener la aspiradora robótica en la casa para mí, ¿ok? Eso es como dice la frase trillada, un antes y un después. Mira, movámonos hacia adelante porque esto se nos está quedando largo y nos falta tema, ¿ok?
Freddy Montes (37:34.122)
eso no va a
Freddy Montes (37:38.936)
Sí.
Freddy Montes (37:43.496)
Ajá. El siguiente. Yo creo que este es un poquito, yo creo que este es uno de los más controversiales, porque con este es el que han quemado más humo, que son los ambientes de desarrollo en la nube. V0, Bolt, Lovable, Replit Y digo que con este es el que han quemado más humo, porque estos son los más full stack. OK. Entonces, son los que, son los que el código como tal.
Aníbal Rojas (37:56.334)
Correcto.
Aníbal Rojas (38:07.131)
Mm-hmm.
Freddy Montes (38:12.586)
e importa menos. De hecho yo diría que importa cero en algunos casos.
Aníbal Rojas (38:15.867)
de hecho te abstraen completamente, prácticamente completamente del código y no sólo eso, yo añado aquí una ecuación Freddy para que lo retome, además te resuelven todo el tema de poner eso en producción
Freddy Montes (38:32.278)
Sí, porque literalmente ya por ejemplo, lovable ya le puedes pegar tu dominio. Entonces, vos le das un botón Publish y ahí ustedes dan un dominio, algo así tipo hash, something.lovable.com. Pero si pagas el premium o pagáis lo que sea que estés pagando mensualmente, le pegas tu dominio. Entonces, ya es tu sitio web o tu web app con tu dominio.com. Entonces, ni siquiera tenés que preocuparte por los deploys.
que por ejemplo, si estás usando Cursor o estás haciendo una aplicación con NextJS tienes que mandarlo a Vercel tienes que mandarlo a AWS o a Netlify en algún lado. aunque no es súper complicado, estos sistemas de hosting han evolucionado un montón y ahora literalmente los sincronizaste con tu GitHub y chao Esto es incluso más fácil todavía. O sea esto es literalmente mi esposa que no tiene mucho conocimiento de nada de web, pudiera ir a Lovable decir quiero hacer una página de este producto y darle dos botones y la vara le va a funcionar.
Aníbal Rojas (39:26.747)
En general, para lo que fueron entrenados, donde hubo mucho data de entrenamiento, landing pages, páginas de precios, páginas de productos digitales, mira, eso sale muy bien, en verdad que sale muy bien, porque se nota que hubo un montón de data de entrenamiento y que están entonados para esto. es como el tema de hacer el código de los circulitos y las bolitas.
eso no demuestra mucho porque es que al final lo que estás haciendo es repitiendo los patrones que ya son muy conocidos. Pero para mí uno de los elementos fundamentales es que acerca la capacidad de hacer un producto, no de programar, la capacidad de poner un producto al aire que es distinto para gente que no es técnica.
Freddy Montes (40:19.404)
Sí, y yo creo que ahí es donde empieza el humo. O yo creo que esto es bueno en términos generales, pero creo que es muy fácil decir. Vieron, ahora yo que soy, no sé, abogado, hice un sistema de gestión de clientes de derecho y de documentos para que los firmen. Eso puede pasar, eso lo puede hacer un abogado. Pronteando.
Aníbal Rojas (40:43.267)
Bueno, un abogado puede intentarlo, ok? Y estoy seguro que le va a generar el landing page, el sign up y de repente dos o tres páginas adentro y que después va a colapsar bajo el peso de la complejidad.
Freddy Montes (40:55.374)
No sé, capaz y tiene suerte. Capaz y es lo suficientemente inteligente para prontearlo y lograrlo. ¿Quién sabe? No sé. El punto es que...
Aníbal Rojas (41:02.617)
porque de repente todos los sistemas de gestión de clientes se van en apoyo y ese patrón es muy obvio para los LLM.
Freddy Montes (41:08.234)
Es un CRUD Al final de cuentas es un CRUD pegado a Supabase que ya por cierto Supabase tiene bases de datos, real time events, tiene sistemas de autenticación y de autorización con todas las redes sociales y con todos los Google y Facebook Meta, lo que sea. Entonces es como que ya tienes resuelto el full stack. Ahora es este stack. Es React, Supabase eso es todo. ¿Te alcanza para tu proyecto de abogado? Quizás.
Ahora, ¿después podés llevar eso a qué escale y tener un equipo de 50 developers trabajando ahí y llevarlo a una compañía de un billón de dólares? No creo. ¿Sin conocimiento? No creo.
Aníbal Rojas (41:54.145)
La pregunta aquí es, como tú arrancaste diciendo, pensando a futuro. Yo también me planteo esto. Bueno, primero, apenas estamos entendiendo cómo hacer sistemas de agentes. Apenas estamos entendiendo eso. Y yo creo que los que están como en el frente más duro de la batalla son la gente que está creando estos sistemas. Porque primero, los clientes son muy exigentes, son programadores. Los clientes saben mucho técnicamente y entienden lo que está sucediendo ahí.
Pero la realidad es que estos sistemas de agentes apenas nosotros estamos entendiendo realmente cómo escalarlos en su complejidad, en las herramientas que pueden utilizar, todo ese tipo de cosas. Entonces, aquí uno podría pensar, ¿qué avances vamos a ver en modelos? Tanto del punto de vista de los modelos convencionales como de razonamiento, más todas las arquitecturas de información que van a haber ahí. Y yo creo que además hay otra parte que es importante, que es...
Tú nombraste Supabase, gran producto. Simplifica un montón de cosas que antes requerían ingenieros haciendo infraestructura dura. Infraestructura dura, eso está muy simplificado ahorita. Montar un sistema de autenticación no es trivial, señores. Y en verdad es un producto que yo creo que es un ejemplo de las cosas que van a empezar a venir, porque vamos a empezar a ver productos que lo que hacen es facilitarle a los LLM la vida. Y eso es muy bueno.
Freddy Montes (43:04.888)
B-
Freddy Montes (43:17.356)
Sí. Y de hecho precisamente, y ya todas las empresas están apostando a eso. sea, a ver, no es casualidad que OpenAI aceptó los MCPs como parte de, bueno, este es el protocolo de comunicación entre sistemas y LLMs. That's it. No es casualidad que Google acaba de lanzar Agent to Agent con soporte para MCPs. O sea, definitivamente ya las empresas se están dando cuenta. Bueno, se están dando cuenta, no, ya esto lo sabían. Simplemente están haciendo los movimientos hacia eso. Y es que...
Aníbal Rojas (43:35.684)
Mm-hmm.
Freddy Montes (43:46.026)
Los modelos están brutales, los modelos están increíbles, logran un montón de cosas, pero ¿cómo los comunicamos con los millones de sistemas que ya tenemos? Porque eso es mentira que vamos a ir a rehacer todos los sistemas nuevos para que se comuniquen con los LLM Es que tenemos que conseguir algo para que los LLM se comuniquen con los sistemas y los operen. Entonces, por eso empezamos a ver cosas como browser use, que es literalmente que va al browser, a Playwright usando el browser. O sea, ya es como darle las herramientas a los modelos para que operen los sistemas que existen o de alguna manera se interconecten.
Aníbal Rojas (43:57.327)
No.
Aníbal Rojas (44:15.683)
Y fíjate que ahí sucedió algo muy particular, Tenemos como dos grandes frentes de batalla. Hay varios frentes, pero yo veo como dos grandes. Hay un frente que al principio, cuando se mencionó y Microsoft se fue ahí de verdad de boca, Microsoft agarra y dice no, mira, tenemos este sistema increíble que va a ver todo lo que tú estás viendo en tu pantalla y te va a ayudar con todo. Y era un sistema a la fuerza bruta basado en puro OCR de pantalla.
copiando todo lo que tú veías. ya otra gente... De hecho, no era original de Microsoft, Por supuesto todo el mundo puso el grito en la boca y tal. Ya el mundo cambió. Pero tenemos entonces como un mundo que, cómo hacemos para romper los jardines cercados, Entonces, bueno, mira, hay una forma que es, bueno, lo que tú ves en tu pantalla está disponible entonces con el LLM Hay otros, por ejemplo, que he visto cosas por ahí. Si tú tienes una página web y tú tienes una aplicación web andando,
Yo puedo agarrar y convertirte eso en APIs automáticamente. Y exponerlas. Chévere. Buenísimo. Y está todo lo que tiene que ver con MCPs. Estoy nomando tres cosas que se me ocurren así rápidamente. Los MCPs para mí son una apuesta más sólida. Porque es que de verdad es como un pega... Es como esa pega...
esa pega que no es perfecta, que no te pega las cosas perfectas pero las mantiene unidas y tienes cierto nivel de flexibilidad que hace mucha falta con sistemas legacy sobre todo.
Freddy Montes (45:44.934)
Pero bueno, ¿sabes qué? Antes de que nos sigamos yendo por este rabbit hole, quiero regresar porque empezamos a hablar de los ambientes de desarrollo en la nube y hablamos de que, bueno, son buenos para hacer ciertas cosas, pero que hay humo alrededor y tal, pero yo siento que sí tienen un buen uso. O sea, que sí hay maneras de usarlo. Y es, normalmente en el proceso de desarrollo de software, uno ve, por ejemplo, yo hice un buen tiempo de mi vida, yo hice diseño y experiencia de usuario UX, ¿no?
Y una de las cosas que yo tenía que hacer, yo tenía que hacer muchos wireframes. Y hay como dos tipos de wireframes. Están los wireframes de baja fidelidad que son cuadros, bordes, gris, todo dibujado. Y la intención de ellos son probar los flujos del usuario o los flujos de los trabajos que hay que hacer. Luego están los wireframes de fidelidad alta.
Aníbal Rojas (46:23.993)
dibujitos. Imagínense un dibujito, si no lo han visto, dibujito, una servilleta que muestra un sistema.
Freddy Montes (46:39.512)
que ya es como que tienen un poquito más de detalle, aquí vamos a ver esto y tal, y luego ya de ahí brincamos normalmente al diseño final. Estas herramientas se vuelan por completo todo lo que tiene que ver... bueno, y están los prototipos, que es como que, bueno, ok, esto no es código todavía, sino que es, por ejemplo, en este caso, Figma, que yo puse unas zonas calientes donde yo puedo hacer clicks y eso me lleva a otra pantalla o despliega algo, y eso llevaba mucho trabajo. Mantener prototipos en Figma es una pesadilla que no se la desea a nadie.
Aníbal Rojas (47:08.036)
todas Todas las semanas yo veo a alguien que dice que Figma está muerto ¿qué opinas tú?
Freddy Montes (47:13.39)
Yo creo que Figma se va a reinventar, yo creo que Figma tiene muy buenos equipos, pero definitivamente sus casos de uso, que son estos wireframing, prototyping y tal, esto ya no sirve. Y no sirve precisamente porque en estas herramientas yo puedo prontear un prototipo que sí, no se va a ver como mi style guide, como mis componentes, pero no me importa. No me importa porque yo lo que necesito es que...
Aníbal Rojas (47:36.673)
ojo, hasta que tengamos un modelo con un buen sistema que tú le puedas tirar un sistema de diseño y que efectivamente sea mucho más fiel a lo que tú ya tienes.
Freddy Montes (47:48.27)
que ya hay cosas como, por ejemplo, ya hay una iniciativa de estandarizar el concepto de design tokens en el browser. Una vez que eso pase y le tire...
Aníbal Rojas (47:57.648)
ya tendríamos una lingua franca para que sea muy interoperable.
Freddy Montes (48:02.048)
Exactamente. Entonces, por ejemplo, yo he hecho prototipos que lo único que me sirven es para hacerle un handoff al equipo de ingeniería. Para que ellos entiendan como cuando hago clic aquí esto se despliega y tal. Y obviamente ellos ya después tienen que ponerlo en el código real y todo el cuento. Para mí, ese es el caso de uso dentro del desarrollo de software serio y realista que estas herramientas en la nube te permiten hacer. Otra cosa que yo lo uso mucho.
Aníbal Rojas (48:11.547)
Mm-hmm.
Aníbal Rojas (48:29.051)
Yo lo otro que he visto, Freddy tiene que ver con compañías muy grandes y tiene que ver con herramientas, con Replit en particular creo que vi un caso de éxito interesante y era desarrollo de herramientas internas. Las herramientas internas son el software más abandonado de la mano de Dios, siempre están viejas, todas cochambrosas, horrendas, nadie les quiere meter mano, nunca se priorizan y están en la médula del negocio.
Freddy Montes (48:57.94)
Claro. Sí, y también está esto luego. También está esta otra idea. OK. Prototipos, ¿no? Esa es una. La otra es dentro de la categoría de UI. Hay muchas veces que yo tengo una idea y es como que esto se irá ver bien cuando esté junto, ¿no?
Aníbal Rojas (49:18.587)
Esto sí tiene sentido.
Freddy Montes (49:20.672)
Esto tiene sentido porque en mi cabeza parece que tuviera sentido, pero a veces la mayoría, muchas veces pasa que mi cabeza tiene sentido y cuando lo pongo en la pantalla es como que esto está horrible Esta vaina a mí me permite sacarme cosas de la cabeza en minutos. Es ridículamente rápido. O por ejemplo, a mí me pasa mucho que a veces tengo que organizar información de alguna manera que se vea como hacer dashboards. Es como que, OK, tengo que mostrar.
Aníbal Rojas (49:34.491)
Mm-hmm.
Freddy Montes (49:44.652)
como 50 cajitas que se vean bien, cuál es la que tiene más importancia, tal. Yo incluso le digo como que, mira, tengo que mostrar este listado de contenido, de data o de lo que sea. Y yo creo que lo más importante es esto, porque al final de cuentas, por debajo siguen siendo modelos. Entonces ellos tienen contextos de poder identificar de todo este listado de contenido cuál es más importante que otro. Entonces hay una cosa de diseño que es bien complicada, que tiene que ver con arquitectura de diseño, que es...
la herencia, qué es más importante y qué cosas se relaciona con qué cosas. Ok. Ese tipo de exploración y jerarquía, ese tipo de exploración, incluso si no termino usándola, al menos me sirve para hacer como research, que después yo digo, ok, esto nada me sirvió, pero ya sé lo que no sirve. Así que me puedo concentrar en estas otras ideas. Yo creo que estas herramientas van a... En el estado actual funciona muy bien para eso, pero yo creo que estas herramientas van a ser aplicaciones...
Aníbal Rojas (50:19.437)
Ok, sí sí, y jerarquía de información, entonces...
Freddy Montes (50:45.194)
¿Listas para producción en?
unos meses.
Aníbal Rojas (50:49.659)
Sí, es que va muy rápido y estos equipos pequeños realmente se logran mover muy rápido. Fíjate, Freddy, para movernos hacia adelante, con nuestro último punto, la terminal. O sea, este me encanta a mí porque mí me sucede algo muy raro. Yo tengo 56 años y de repente me encuentro ahí metido dentro de Visual Studio Code, en cualquiera de sus diversas encarnaciones, Cursor, Windsurf Y, oigan...
Yo les voy a hacer muy honesto, ¿OK? Para mí Visual Studio Code es un montón de información. Nunca logro cuál es el tamaño del font correcto y estoy dándole control + y command + command - todo el tiempo. o me pierdo el Big Picture o me pierdo el... No puedo leer el archivo. Y la primera vez que probé Claude Code, oye, lo amé. Lo amé porque entonces es un terminal, tengo una aplicación con un terminal.
no hay un árbol a la izquierda, no hay un sidebar a la izquierda con un árbol de archivos, no tengo el agente de un lado a la derecha y tengo unos divs así con letra gigantesca, lo único que le falta al tamaño es el comic sans que para mí son muy amigables, esto es muy extraño y me gusta mucho el flujo solo en la terminal, es un flujo muy...
muy raw, muy crudo, muy brutalista, ok? Si lo quieres ver, oye, y me gusta, me siento productivo ahí. Ahí siento que no es que soy un pasajero en el asiento de atrás, sino que estoy compartiendo el volante.
Freddy Montes (52:25.342)
Es muy interesante porque...
Yo, por ejemplo, cuando lo probé a mí me pasó lo contrario. Yo dije, yo me sentía raro no saber, no tener claro qué archivos estaba tocando, porque si él te lo dice, pero no ver los tabs donde yo sé que estoy como en este. A mí me pasó lo contrario, pero yo creo que. Que como el código cada vez va a importar menos. Y queramos o no, cada vez le vamos a dar, cada vez vamos a confiar más en que el código que está escribiendo.
Aníbal Rojas (52:41.795)
Ajá.
Freddy Montes (52:58.004)
la inteligencia artificial va a ser mejor. Y voy a hacer un paréntesis aquí. Eso no quiere decir que no vamos a revisar el código y que lo vamos a merillar. No estoy diciendo eso, pero es un punto de que yo siento que los developers se van a enfocar tanto más en las tareas de más alto nivel y más creativas que el output del código con un buen div, como vos decís, va a ser más que suficiente de que uno lo vea, uno lo lee, uno lo aprueba o uno lo rechaza y tal.
Aníbal Rojas (53:26.395)
Oye, esto tiene sentido, esto tiene sentido, ¿OK? Y no tiene que tener los 30 tabs abiertos con archivos en diferentes lados. Porque además, la forma correcta para mi del uso de estas herramientas es ser muy puntual, ¿no? O sea, si tú te quedas pegado haciendo un montón de cambios juntos o cambios muy macros, mira, esa es la para el desastre, porque las entradas de contexto no dan, literalmente no dan. Y yo, ¿qué hay de herramientas? Ajá, dale, dale.
Freddy Montes (53:48.662)
Y yo siento que por eso es que... Dale. No, no, y yo siento que esa es la parte complicada de hacer desarrollos software asistido por AI. Porque es que vos tenéis que estar todo el tiempo partiendo los problemas en problemas más pequeños. Pero es que...
Aníbal Rojas (54:02.829)
y no hay una herramienta que lo haya logrado resolver.
Freddy Montes (54:06.286)
No, es tu cerebro en tiempo real teniendo el problema grande y empezar a prontearlo en problemas más pequeños y en problemas más pequeños. Y eso es difícil de lograr. Eso no es... No es tan straightforward.
Aníbal Rojas (54:16.187)
Entonces, tenemos una herramienta que puede generar código muy rápido, pero uno termina dedicándole un montón de tiempo a preparar todo lo que hace falta, a pensar los casos, hacer el trabajo que al final siempre había que hacer. que muchas veces por esa urgencia de poner a la gente a trabajar como manager, esa mentalidad de manager que es balurda, entonces uno corría a que, mira, lo que me interesa es que la gente esté codeando.
Freddy Montes (54:43.438)
Claro, que es lo que te hablaba al principio, de que ahora honestamente ya no hay excusa para decir no, no, ya vamos, voy a sentar una horita, hacer un planning, un design doc, un planning, un PRD, llámalo como lo queráis, llamar cada equipo que vea cómo lo va a desarrollar. Pero hay dos cosas que esto te va a ahorrar, va a ahorrar tiempo. Yo siento que la gente cree que planear no es desarrollar software, sino que escribir código es desarrollar software y ahí esa es la primera mentalidad que hay que cambiar en los equipos. Y yo lo hice.
Modestia aparte fue una cosa que logré con un equipo y de verdad que es increíble. Sí, es increíble. O sea, ese equipo luego verlo trabajar es como que...
Aníbal Rojas (55:18.743)
Este un tema para otro episodio, el cambio cultura.
Aníbal Rojas (55:27.547)
No te vayais pa allá
Freddy Montes (55:30.422)
Exacto, no voy para allá. Pero entonces, el punto al que voy, que de hecho ya se me olvidó, pero, anyways, es, ya no hay excusa para no planear. No lo hay.
Aníbal Rojas (55:37.625)
De hecho, de hecho, es una exigencia para no perder tiempo. Y yo conecto algo adicional, me pasó una cosa muy simpática que, oye, estaba intentando hacer un feature, estaba intentando hacer un feature en un Code Base. Oye, y el LLM entonces se empeña en irse para otro lado. Y yo oye, pero por qué, por qué, por qué este bicho no quiere? Porque vamos a estar claro, muchas veces utilizar estas herramientas es como domar un caballo loco, ¿no? Un caballo de esos broncos salvajes.
que uno está ahí montado viendo a ver qué hace. Y uno empieza a agarrar la vuelta y se dice, oye, aquí hay algo que yo no estoy viendo y no está bien. Fíjate lo que me pasó. Cuando me doy cuenta, la librería tenía un error y la documentación publicada no se estaba generando correctamente. Y efectivamente, con la información que estaba pública en los docs, era imposible que el LLM entendiera cómo hacer lo que yo quería hacer.
Y entonces, ¿qué tuve que hacer yo? Me busqué el código en GitHub, me lo descargué, lo revisé, encontré la parte donde se implementaba la función que me interesaba, agarré ese código, me lo traje, se lo di al LLM y entonces lo implementó de una sola vez.
Freddy Montes (56:56.064)
Sí, que por cierto, no lo dijimos mientras estuvimos hablando de cursor y todo eso. Eso es otra parte del contexto. Tú le puedes dar la documentación de tus librerías, de tu framework, de lo que sea que estés utilizando a cursor, la indexa, y luego tú puedes mencionarla.
Aníbal Rojas (57:09.019)
Hay un mcp que lo único que hace es busca la librería y la descarga en formato plano. Busca la documentación en formato plano. Ya lo pongo ahorita en las notas o aquí mismo abajo para los que nos estén viendo el vídeo. Uno de tus favoritos, Warp.
Freddy Montes (57:20.728)
Está increíble.
Freddy Montes (57:31.562)
Warp. Warp es una terminal súper rápida. Yo la empecé a antes de que tuviera AI. Recientemente, cuando toda la explosión de AI salió, ellos se pusieron las pilas y empezaron a hacer cosas por AI. Y una de las primeras cosas que hicieron era como un chat. Entonces, yo le podía hacer preguntas sobre lo que estaba pasando en mi terminal. Ellos tienen una particularidad que cada ejecución
de un comando lo guardan en un bloque. Ellos lo llaman bloque. Si algo salía mal en ese bloque, tú podías darle un botón y preguntarle cómo arreglarlo. Entonces, por ejemplo, si trataste de correr un comando y no tenía permiso la carpeta o lo que sea así, él te dice, tienes que hacer chmode, bla, bla, bla, bla, bla, bla. Y recientemente agregaron un agente. Y ese agente es muy parecido a Claude Code y Codex. Entonces, por ejemplo,
Aníbal Rojas (58:25.839)
Codex OpenAI, que es el otro enfoque también que descubre una terminal.
Freddy Montes (58:28.086)
En esto... Sí, entonces en estos días, por ejemplo, me pasó algo que estaba corriendo un proyecto en Python, creo que era Flask, y lo corrí, y cuando estaba instalando los paquetes me tiró un error, y yo era como que, esto debe ser una librería. O sea, por el error, yo dije, hay una versión aquí de esta librería que no es compatible, y yo dije, tengo dos opciones, voy, googleo, ¿cuál es la librería? O es como que click, arregla esto. Y el bicho le dio la vaina y dice...
Aníbal Rojas (58:47.579)
mmm
Freddy Montes (58:54.162)
sí, esta librería ya no se usa a partir de la versión tal de Flask, se tiene que usar la versión tal de la librería, así que voy a actualizar tu requirement.txt y luego corremos otra vez el install. Y yo así, enter, enter, enter, sirvió. OK.
Aníbal Rojas (59:07.015)
que uno de los pitfalls, uno de las trampas más clásicas es que los modelos te traen en librerías que no están actualizadas trabajan en base a...
Freddy Montes (59:15.244)
Sí, este fue al contrario. Y lo que me sorprendió fue que me dijo, a partir de la versión tal, ya no es compatible con esta versión de este otro paquete que vos tenés.
Aníbal Rojas (59:25.243)
eso está bueno! Pero de nuevo, fíjate la importancia de que haya información pública para generar contexto bueno para alimentar estos sistemas. Si no fuera por todo este montón de librerías open source y buena documentación que hay en internet, esto no se podría hacer. Una de cosas que a mí más me impresiona de Warp es que de verdad simplifica mucho la terminal. Miren, yo tengo...
Freddy Montes (59:28.182)
¿Cos es?
Freddy Montes (59:42.423)
Sin duda.
Aníbal Rojas (59:52.187)
como 15 mil años, o sea que yo no echo hecho código, yo tengo ya muchísimos años que estuve dedicado a la gerencia y yo estoy metido ahorita echando código y haciendo productos, y explorando realmente explorando todavía no tengo nada, estoy explorando un montón de ideas y oigan a mí yo no me acuerdo de todos los comandos y los parámetros de Git, hay un montón de cosas que en verdad no me acuerdo y de verdad poder usar una terminal que esté enhierrada así es muy bueno
Y con el caso de Warp, yo sí probé desde cero, como lo dije antes, a generar un proyecto desde cero y el resultado está bastante, bastante bueno. Yo quisiera seguir viendo iteraciones de Warp y la tienen complicada porque ahora tienen a los pesos pesados de los LLMs metidos ahí en su cancha también.
Freddy Montes (01:00:40.59)
Sí, exacto. Pero a mí, honestamente, me sorprendió mucho esto de los agentes que escriben código en las terminales. O sea cuando yo lo vi la primera vez en Claude Code y yo lo probé, yo decía como, ¿por qué voy a usar yo esto? ¿No? Y conversando con vos precisamente fue que empecé a ver, ah, OK, ya yo entiendo qué es lo que está pasando, por qué estos tipos están diciendo que esta es una nueva interfaz para escribir código. Y tiene todo el sentido porque...
Aníbal Rojas (01:01:06.477)
Claro, que Visual Studio Code tiene un poder gravitacional giganteco. La cantidad de gente que se crió con Visual Studio Code es grandísima.
Freddy Montes (01:01:16.43)
Claro, tiene todo el sentido esto de la terminal porque yo creo que es lo más cercano a un JARVIS-like. Es como, vos le estáis diciendo a este tipo qué hacer, a esta cosa, a este ente que está en tu terminal. Vos no le estáis diciendo qué hacer, vos no le estáis diciendo qué archivo, no le estáis diciendo nada. Que vos podés reproducir eso en code, en Visual Studio Code, pero como en Visual Studio Code tenéis el tree.
te editas estos archivos y por tu naturaleza y de haber usado Visual Studio Code por tanto tiempo con ciertas cosas que uno desarrolla y memoria muscular que uno tiene ya dentro del editor, no es lo mismo. Entonces, está toda la distracción que vos decís, mientras que aquí en la terminal te vuelas toda esa distracción.
Aníbal Rojas (01:01:56.411)
Exacto. Es muy raro porque fíjate que tenemos como tres ambientes distintos. El ambiente que es sobrecargado de información que les gusta a los desarrolladores. Tenemos el ambiente donde toda la información te está siendo ocultada como el de un Replit como de un Bolt un Lovable Y tenemos el ambiente donde hay como un compromiso extraño de minimizar la cantidad de información que te enseño, pero tú sigues estando muy cerca de lo técnico porque es una terminal ¿Listo?
Yo creo que ya nos toca ir cerrando aquí, Fredy, a menos que tú quieras agregar algo.
Freddy Montes (01:02:30.348)
No, yo creo que lo que sí quiero hacer para cerrar, obviamente hablamos un montón de herramientas, un montón de casos de uso, y a mí lo que me gustaría cerrar es con... Yo no lo voy a llamar un consejo, yo no doy consejos, yo doy opiniones o doy cosas que me han funcionado a mí. Y aquí, en este caso en particular, que hablamos de herramientas, es experimenten. Casi todas estas herramientas son o gratis o tienen una capa gratuita. Y...
parte de aprovecharlas es la experimentación y la curiosidad. Entonces, ¡prueben!
Aníbal Rojas (01:03:05.891)
y yo agrego, ya que tú metiste eso yo agrego y pruébenlo buscando que les funcione y no lo suelten a la primera frustración porque esto es un cambio muy grande de la forma de pensar entonces no se frustren inmediatamente y no lo tiren, Explórenlo. ¿Tienen limitaciones? Sí, esto está muy lejos de estar perfecto, ok? Pero la realidad es que ninguna tecnología
se empieza a hasta que está lista. Todas las tecnologías se empiezan a cuando todavía están verdes.
Freddy Montes (01:03:38.03)
Sí. A mí me pareció muy curioso el post que compartimos en estos días de esta persona que estaba hablando. Básicamente, el cuento era como de que, pasa si es más fácil escribir código? Su teoría o lo que le estaba proponiendo era que la demanda por software no era inelástica, sino elástica, que mientras más barato fuera, más demanda de código iba a haber. Y...
Aníbal Rojas (01:03:59.099)
Mm-hmm.
Freddy Montes (01:04:04.078)
Yo no estoy completamente acuerdo, eso es otro tema. Pero lo que sí me pareció muy interesante es como él dijo, o sea, en una de las partes él decía, que ahora lo que íbamos a tener oportunidad era de hacer mejor software. Y él se puso como a analizar la calidad del software que tenemos. O, por ejemplo, uno de los ejemplos que puso fue, ¿cuál es la real diferencia entre una hoja de cálculos la primera vez que salió y ahorita en 2025? Y en verdad no es tanta. O sea, no hay una innovación increíble. Entonces, básicamente, él estaba diciendo,
Con estas herramientas vamos a poder innovar más porque nos vamos a poder enfocar más en los problemas y menos en el código.
Aníbal Rojas (01:04:38.139)
y van a ser cada vez más específicos, que el nicho es muy específico, eso para mí es muy rico. Listo, esto es O Corres
Freddy Montes (01:04:45.716)
o te encaramos. Y ocorre.com.
Aníbal Rojas (01:04:46.937)
que ahora tiene un dominio que es... ajá, ¿qué? o corre punto con el dominio, ¿ok? Listo, nos vemos el próximo.
Freddy Montes (01:04:53.142)
Sí, señor. Nos vemos. Bye.
