DEJA DE PAGAR por Github Copilot con esta alternativa LOCAL & OPENSOURCE | Tutorial
Вставка
- Опубліковано 28 тра 2024
- ¿Estás cansado de pagar $10 al mes por GitHub Copilot? ¡Entonces este video es para ti! En este tutorial, te mostraré cómo reemplazar GitHub Copilot con herramientas gratuitas y poderosas que harán que tu programación sea más eficiente y sin costos adicionales.
💡 Qué aprenderás en este video:
1- Por qué deberías considerar alternativas a GitHub Copilot.
2- Descubre el modelo de código abierto CodeQwen 1.5, una opción poderosa y gratuita.
3- Cómo instalar y configurar la extensión "Continue" en Visual Studio Code.
4- Usar Ollama para servir tus modelos como API y aprovechar su poder.
5- La increíble velocidad de Groq y cómo usarlo.
6- Cómo combinar diferentes modelos para obtener el mejor rendimiento en autocompletado y generación de código.
7- ¡Y mucho más!
🔧 Herramientas y recursos mencionados:
- GitHub Copilot
- CodeQwen 1.5
- Continue Extension para VS Code
- Ollama API
- Groq API
- Google Gemini API
Estas alternativas no solo te ayudarán a ahorrar dinero, sino que también protegerán tu privacidad y te darán más control sobre tu entorno de programación.
No olvides darle like 👍, compartir 🔄 y suscribirte 🔔 para más tutoriales increíbles. Si tienes alguna pregunta, déjala en los comentarios y estaré encantado de ayudarte. ¡Nos vemos en el próximo video!
🌐 Enlaces Útiles:
Descarga de Ollama: ollama.com/download
CodeQwen 1.5: ollama.com/library/codeqwen:7b
Extensión Continue para VS Code: marketplace.visualstudio.com/...
Groq API: console.groq.com/
EvalPlus: evalplus.github.io/leaderboar...
👋 Conecta conmigo en redes sociales:
Facebook: / kevin.dominguezriquelme.1
Gracias por ver el video y apoyar el canal. ¡Hasta la próxima! 🚀
Video Inspirado en AICodeKing
#programacion #github #githubcopilot #IA #codemasters #Gratis #OpenSource #ai #ias #DesarrolloDeSoftware #TechTips #VSCode #Ollama #Groq #Continue #CodeQwen #Tutorial - Наука та технологія
Anda extremadamente rapido con groq, gracias por el aporte! Saludos
Si, la verdad con Groq es una excelente opción! Muchas gracias por comentar y por el apoyo.
Usas la extension de Groqopilot en VScode y ya?
@@user-kn3hb4lt9d Hola yo la estoy por probar
Los 7 minutos mas productivos en un video de UA-cam, gracias personalmente uso Codeium pero quería probar otra opción usando en local con ollama, gracias.
Muchísimas gracias por esas palabras y el apoyo! Voy a revisar Codeium para analizar cómo funciona y si es posible realizar un video también, muchas gracias por la información 👍
Yo uso codeium y tambien quiero probar cual es mejor.
Voy a esperar el vídeo, a lo mejor no le saco el máximo provecho. Saludos y adelante
Yo uso codeium y me extraña que aún sea gratuito.
excelente video, muchas gracias
Wuao Bro! muchas gracias, excelente video!!!!!!!!!!!!!!!!!!!!!!!!!!!!
Muchas gracias a ti por comentar y apoyar el contenido! 👋
Gran aporte!!!! Muchas gracias
Muchas gracias a ti por comentar y apoyar el contenido!
Gracias por el video, lo hice aca y quedo muy bueno
Excelente! Que bueno que te sirvió y gracias por comentar
muchas gracias, me sirvió mucho...saludos!
Excelente! Muchas gracias a ti por el apoyo
Muy bueno Crack!!
Muchas gracias por comentar y apoyar el contenido! 🤘
Muy bueno. Me suscribo
¡Muchas gracias por el apoyo!
Te pasaste... te mando ❤❤❤❤
¡Muchas gracias por tus comentarios y por el apoyo!
Excelente video, pero como se configura el autocompletado para que use groq en lugar de que sea localmente?
Actualmente Groq no lo está permitiendo (lamentablemente), pero tienes una excelente alternativa que acaba de salir para corregir el autocompletado lento, acabo de subir un video sobre CODESTRAL, y también muestro como conseguir acceso GRATUITO a su API, resultados de benchmarks contra otros modelos (contra CodeLlama, Deepseek y Llama 3 70B) y configurarlo en el editor de código como COPILOT y también conseguir un AUTOCOMPLETADO rápido. ua-cam.com/video/KgW-YTm5sG8/v-deo.html
Te recomiendo mucho verlo si quieres un mejor y rápido autocompletado para resolver tu inconveniente.
Gracias por compartir tus conocimientos, como puedo desintalar codeqwen de mi pc?
Te comparto los pasos para borrarlo
1- Abre tu terminal y corre el comando "ollama", y te deben aparecer los comandos disponibles (una lista de comandos).
2- Ahora para identificar el nombre clave del modelo codeqwen que descargaste corre el comando "ollama list"
3- Idéntica el nombre del modelo que descargaste, puede ser "codeqwen:latest" o "codeqwen:7b", depende como te aparezca a ti, pero copia el nombre tal cual aparece
4- Corre el comando "ollama rm codeqwen:latest" y se bórrala de tu equipo el modelo
todo esta excelente pero como le quito el resaltado amarillo?? cada vez que me genera codigo porfa si alguien lo sabe he intentado en configuracion y naDA
Hola, disculpa no entiendo esa parte del resaltado amarillo, nunca me ha sucedido, si aún no lo resuelves envíame mensaje por mi FB (donde igual comparto cosas relacionada a la IA), me mandas captura de pantalla e intento apoyarte. facebook.com/kevin.dominguezriquelme.1
gracias
Gracias a ti por comentar!
Muy buen aporte, me funciona todo y rapido, menos el autocompletado, sera otra extencion que la pisa?
Si, es posible que el autocompletado pueda tardar, dependerá de las características de tu PC, pero mira, acabo de subir un video sobre CODESTRAL, y también muestro como conseguir acceso GRATUITO a su API, resultados de benchmarks contra otros modelos (contra CodeLlama, Deepseek y Llama 3 70B) y configurarlo en el editor de código como COPILOT y también conseguir un AUTOCOMPLETADO rápido. ua-cam.com/video/KgW-YTm5sG8/v-deo.html
Muy bueno!, ¿sobre que specs de pc corriste lo visto en el video? ¿alcanzará una m2 con 8gb? mmm
Mi PC cuenta con:
- Ryzen 7 5700X
- 32Gb RAM
- RTX 4070 12GB
Puede correr algunos modelos, pero ya modelos
@@Conciencia_Artificial Mil gracias, muy claro!!
Yo lo uso es muy bueno gente mas si tienes apis key
Está excelente la verdad, para trabajar con los modelos de forma local. ¡Gracias por comentar!
Quiero un modelo para hacer un asistente virtual simple. Y ejecutarla en computadoras básicas. Cual me recomiendas. Que consuma el minimo posible de recursos
Si ya viste este video, te recomiendo mucho que veas el nuevo video que acabo de subir sobre CODESTRAL, para lo que estás buscando creo que te podría ayudar bastante, ya que es a través de su API, en el video también muestro como conseguir acceso GRATUITO a su API, resultados de benchmarks contra otros modelos (contra CodeLlama, Deepseek y Llama 3 70B) y configurarlo en el editor de código como COPILOT. ua-cam.com/video/KgW-YTm5sG8/v-deo.html
En caso de que el video no te resulte útil, puedes igual contactarme por FB, y vemos otras alternativas dependiendo tus necesidades facebook.com/kevin.dominguezriquelme.1
Muchasssss gracias por tu tiempo y el aporte, me.he suscrito, tengo dos inquietudes
1.Cuando dices que trabaje de forma local a que se refiere, es decir que genere código sin conexión a internet?
2. Esto que nos enseñas puede ser usado en IDE de intellij idea?
Saludos, quedó atento a tu respuesta
Gracias a ti por apoyar el contenido. Te respondo conforme tus preguntas.
1- Si, genera código sin conexión, de echo tú mismo "hosteas" el modelo con ollama, de esta forma el modelo utiliza recursos de tu PC, por ejemplo, según la información oficial de ollama para correr modelos con 7 billones de parámetros como CodeQwen, necesitas 16gb de RAM, obvio si tienes una GPU será mucho más veloz, pero mientras más grande sea el modelo, más recursos utilizará de tu equipo.
La ventaja real de correr los modelos LLM de forma local, es que hay 100% de privacidad, ya que no hay conexión con servidores de terceros, por ejemplo, podrías utilizar los modelos, aunque no tengas acceso a internet en tu equipo, vayas en un avión, etc.
2- Si, la extensión de "Continue" también existe para JetBrains, aunque nunca la he usado ahí (es que no utilizo ese IDE). Pero te comparto el sitio web oficial de la extensión para que veas: www.continue.dev
como puedo hacer para que utilice la gpu, porque solo utiliza la cpu, la grafica siemore permanece en 0 ?
Estuve realizando pruebas y en mi caso si utiliza la GPU, déjame revisar si existe alguna configuración para activar dicha opción, o que puede estar sucediendo
Interesante lo de la privacidad aunque por años la enterramos y ahora saben como tenernos agarrados y más cuando se tiende a querer un sirviente Jaime artificial. Preguntó sobre opciones open Source y de privacidad local: cuales responden a generar pruebas unitarias mejor?
Hola hermano, disculpa por apenas responder, pero para pruebas unitarias podrías utilizar modelos especializados en la codificación como CodeQwen (el que muestro en el video) o bien el nuevo modelo Codestral, que también realizamos un video en el canal: ua-cam.com/video/KgW-YTm5sG8/v-deo.html
Ambos modelos son excelentes para la programación.
Si es de manera local tiene se tiene que contar forzosamente con GPU? Es que me gustaria ponerlo en la Laptop que uso para trabajar, solo tiene un i7 7340QM y 16gb de ram. Y ademas el internet de mi trabajo falla bastante como para usar desde la nube.
Lamentablemente para modelos más grandes si es necesario tener una GPU, ya que son exigentes, pero últimamente han estado saliendo modelos excelentes y más pequeños que podrías probar, como phi-3 mini, Granite sus versiones más pequeñas, Qwen 2 (sus versiones más pequeñas) o igual puedes intentar correr Codestral y CodeQwen.
Espero haberte podido ayudar. Saludos!
Hola, muy buen video, me funciona bien CodeQwen, pero no me autocompleta nada, segui todos los pasos pero falta algo, sabes que podria ser ?
Estaba revisando que el autocompletado hay ocasiones que demora en generar una solución, igual puede ser tus especificaciones de tu pc.
Si te interesa acabo de subir un nuevo video sobre Codestral donde puedes utilizar para el auto completado de código de forma 100% gratis su API en tu editor de código. ua-cam.com/video/KgW-YTm5sG8/v-deo.htmlsi=Nl1MxrVsjmVDQCvJ
Y para hacer algo así en intelliJ qué extensión podría usar?
Si se encuentra disponible para IntelliJ, te comparto su sitio web oficial para que descargues lo necesario
www.continue.dev/
@@Conciencia_Artificial Voy a probarla estos días! Muchas gracias ☺
Hice todo y me salio en ingles el mensaje de confirmación cuando le escribres hola abra algun problema en eseo
No, puedes pedirle al modelo "responde en español" para que haga la traducción correcta de lo que te escribió o bien decirle "a partir de ahora responde siempre en español". Pero a veces es normal que respondan en inglés.
En mi caso va excesivamente lenta la generación de respuestas, será por cuestiones de hardware?
Si, es posible que el autocompletado pueda tardar debido a las características de tu PC, pero mira, acabo de subir un video sobre CODESTRAL, y también muestro como conseguir acceso GRATUITO a su API, resultados de benchmarks contra otros modelos (contra CodeLlama, Deepseek y Llama 3 70B) y configurarlo en el editor de código como COPILOT y también conseguir un AUTOCOMPLETADO rápido, te recomiendo verlo si quieres una excelente alternativa. ua-cam.com/video/KgW-YTm5sG8/v-deo.html
Hola ¿que tal? En el min 3:51 Cuando dices que podemos usar un modelo para autocompletar y otro para generación de código y chat. ¿Cual recomiendas para cada una de esas funciones? Y como se hace para seleccionar uno para cada cosa diferente?
Gracias de antemano!
Hola hermano, en el video mencionó la parte de “tabAutoCompleteModel” en el archivo de configuración de la extensión (config.json) en esa parte puedes cambiar cualquier modelo con ollama que tengas instalado, o bien puedes utilizar un modelo mediante su API como Codestral (que actualmente se encuentra gratis hasta el 1 de agosto del 2024) ua-cam.com/video/KgW-YTm5sG8/v-deo.htmlsi=L7nR_ahSDvNAUQck
También podrías utilizar modelos locales más pequeños para esas tareas, como Starcoder 2 con 3 billones de parámetros, deepseek-coder con 1.3 billones, etc.
O si tu pc te lo permite, utiliza de forma local el que menciono en el video para el autocompletado “CodeQwen” con 7 billones de parámetros, es bastante bueno.
Te dejo un ejemplo del archivo config.json para que quede más claro:
1- La sección de "models" será los modelos que vas a poder seleccionar en la lista desplegable de la extensión, para chatear con ellos
2- La sección de "tabAutocompleteModel" es donde configurarás manualmente, que modelo quieres que se encargue específicamente para el autocompletado y sugerencias de código, aquí debes poner algún modelo que hayas descargado con ollama
3- La parte de "customCommands" es algo que se crea por deafult al instalar la extensión, eso lo puedes dejar como te aparezca
{
"models": [
{
"model": "AUTODETECT",
"title": "ollama",
"provider": "ollama",
"apiKey": ""
}
],
"customCommands": [
{
"name": "test",
"prompt": "{{{ input }}}
Write a comprehensive set of unit tests for the selected code. It should setup, run tests that check for correctness including important edge cases, and teardown. Ensure that the tests are complete and sophisticated. Give the tests just as chat output, don't edit any file.",
"description": "Write unit tests for highlighted code"
}
],
"tabAutocompleteModel": {
"title": "codeqwen:7b ",
"provider": "ollama",
"model": "codeqwen:7b "
}
}
@@Conciencia_Artificial Ah vale es que no me habia quedado muy claro como se hacia para diferencia el de autocompletado con el de "chat", pero ahora me quedo clarisimo!
Deje como autocompletado el codeqwen:7b que es el que entendi es el mejor.
Muchas gracias por tomarte tu tiempo para responder, realmente eres de gran ayuda a la comunidad. Muy buen canal este 👍
Con groq puedo añadir el autocompletado tabién?
Si es posible usarlo, pero no es muy buena opción, debido a que te genera demasiado texto explicando el código que quieres crear o autocompletar. O sea, se vuelve digamos muy molesto que siempre genere más texto tipo chat que el código que estás buscando. Te dejo como debes dejar la opción de tabAutocompleteModel por si gustas probarlo.
"tabAutocompleteModel": {
"title": "llama3-70b",
"provider": "groq",
"model": "llama3-70b",
"apiKey": "[YOUR_API_KEY]"
},
¿Cómo se compara qwen con Codestral, Deepseek coder o con codellama?¿harás un vídeo de esa comparativa? like y suscribir!
Realizaré una comparativa específica entre esos 2 modelos, porque la competencia se está poniendo buena, mientras tanto, acabo de subir un video sobre CODESTRAL, y también muestro como conseguir acceso GRATUITO a su API, resultados de benchmarks contra otros modelos (contra CodeLlama, Deepseek y Llama 3 70B) y configurarlo en el editor de código como COPILOT. ua-cam.com/video/KgW-YTm5sG8/v-deo.html
que interasante!!! Soy un aprendiz de codigo, solo que ollama esta en ingles, como lo coloco en español?
El sitio web de ollama lo puedes traducir con tu navegador con Google Chrome o Edge.
La aplicación como tal se utiliza principalmente en la terminal de tu equipo, y esos comandos deben ser en inglés, ya que así fueron configurados.
Lamentablemente la mayoría de herramientas en el mundo del desarrollo de software son en inglés y muchas veces ya no los traducen a otros idiomas, por lo que mejor intenta acostumbrarte a ver la mayoría de cosas en ese idioma.
Si no sabes ingles entonces estas mal !!! Así de simple !!!
Se tiene una alternativa así para Visual Studio, en ves de VS Code?
La verdad no conozco si exista alguna para visual studio, si llego a saber de alguna te compartiré la información por aquí.
excelente aporte !! , cual es el requerimiento mínimo de gpu ?
Pues dependerá mucho de cada modelo, puedes utilizar también Phi-3 Mini y ese consume aprox 4-5 gb de RAM
Si quieres un modelo más potente como Starcoder2 15b o el nuevo Codestral 22b, pues necesitarás mínimo 12gb de VRAM, 32gb de RAM.
Mientras más RAM y VRAM tengas pues mucho mejor 👍
@@Conciencia_Artificial Hola buenos días , Una consulta: Siempre veo que hablan en los requerimientos de la VRM, pero nunca de los núcleo Cuda por lo cual me cuestiono si para estos casos por ejemplo sería mejor tener una gráfica como la rtx 4060ti 16GB VRAM que una 4070 de 12gb de VRAM pero con mas nucleos CUDA y hancho de banda. En mi caso no ocupo juegos y quiero ser más productivo al mejor coste posible
alguna extension o manera de usarlo con visual studio ?
La verdad desconozco si hay alguna extensión con visual studio, en caso de que sepa de alguna te estaré compartiendo la info por este comentario.
Se encuentra disponible la golang de jetbrain? Pagué la ia de este ide y la di de baja por qué no me convenció.
yo uso copilot en jetbrain, funciona bien
Hola, disculpa, no entendí bien tu comentario. Aunque nunca he utilizado JetBrains, estoy al tanto de que la extensión "Continue" está disponible para esta plataforma. En su página oficial puedes encontrar el enlace para la extensión, aquí te lo paso por si necesitas la información: www.continue.dev
Hola, me da este error en el primer paso:
PS C:\Users\santi> ollama run codeqwen
ollama : El término 'ollama' no se reconoce como nombre de un cmdlet, función, archivo de script o programa ejecutable. Compruebe si
escribió correctamente el nombre o, si incluyó una ruta de acceso, compruebe que dicha ruta es correcta e inténtelo de nuevo.
En línea: 1 Carácter: 1
+ ollama run codeqwen
+ ~~~~~~
+ CategoryInfo : ObjectNotFound: (ollama:String) [], CommandNotFoundException
+ FullyQualifiedErrorId : CommandNotFoundException
Por lo que veo, no está cargando tu terminal los comandos de ollama, puede ser por cuestiones de permisos o quizá debas agregar ollama al PATH de windows para que puedas ejecutar esos comandos desde cualquier ubicación de tu terminal.
O la otra podría ser que necesites reiniciar tu equipo.
Disculpa por la demora en la respuesta, pero ¿Sigues teniendo este problema o ya lo lograste resolver?
Como se que funciona solamente de forma local?
Cuando instalas los modelos con ollama y los corres, se están ejecutando con los recursos de tu PC, por lo que deberás tener una PC con buen hardware (igual dependerá que modelos quieras correr), pero suficiente RAM y VRAM si son necesarios. También puedes correrlos con APIs de modelos comerciales como GPT-4o, Claude, entre otros, solo que aquí dependerá lo que tú quieras y necesites y como configures tu archivo config.json (el archivo de configuración de la extensión Continue), que igual explico en el video.
Acabo de subir un video sobre CODESTRAL, y también muestro como conseguir acceso GRATUITO a su API, resultados de benchmarks contra otros modelos (contra CodeLlama, Deepseek y Llama 3 70B) y configurarlo en el editor de código como COPILOT. ua-cam.com/video/KgW-YTm5sG8/v-deo.html
Me molesta de Continúe la indexación de archivos, ¿hay alguna forma de desactivarlo?
Me dio problemas ollama.
¿Qué problema te arrojó?
amigo hice el paso a paso y todo bien, pero el autocomplete tarda mas de 10 seg tengo grafica una 6700 XT
Estoy viendo que para algunos usuarios no está utilizando su GPU, probablemente sea tu caso, pero aún sigo viendo a que se debe este problema, si encuentro algo te comento igual por aquí
Una pena, no funciono.. he seguido los pasos tal cual y nada, busque en la documentación y sigue sin funcionar
¿Te está arrojando algún error? Si gustas escríbeme por mi cuenta de facebook e intento apoyarte facebook.com/kevin.dominguezriquelme.1
También con otro equipo que realicé pruebas tuve problemas, pero todos los errores eran del archivo de config.json
Alguna idea del por qué el autocompletado no funciona y en cambio me da un salto de linea cada vez que escribo cualquier cosa?
Estás utilizando el modelo de CodeQwen? Debería de funcionar correctamente, intenta instalando un modelo más pequeño para descartar que sea por los requisitos de tu pc, o en cambio intenta utilizar el API de Codestral que muestro en este video, se encuentra gratis hasta el 1 de Agosto del 2024: ua-cam.com/video/KgW-YTm5sG8/v-deo.html
Esta muy bueno, me gustó Groq, pero no ofrece autocompletado y no me estaba funcionado el que mostraste, le puse el de Codestral y me funcionó, pero eventualmente lo pondrán de paga, que otras opciones recomiendas?
Pd: Nuevo sub xd
Dependerá de las especificaciones de tu equipo, pero en caso de que CodeQwen no te haya funcionado bien o muy lento, quizá debas cambiar a un modelo más pequeño, como StarCoder 2 3B, CodeGemma 2B, Deepseek-coder 1B, Granite-code 3B, para el autocompletado
Muchas gracias por comentar y apoyar el contenido! 👋
Grande, está excelente la opción, funciona en IntelliJ ?
Me parece que aún NO, actualmente solo está para VS Code y JetBrains
En su sitio web aparece más información, pero ojalá lo lleven a otros editores ya que es una excelente opción
www.continue.dev/
@@Conciencia_Artificial IntelliJ es de jetbrains 👏🏼👏🏼👏🏼👏🏼
Muchas gracias por la aclaración, es que nunca he utilizado sus editores, aunque he leído que son muy buenos
Lo he probado con ollama y con lm studio como proveedor y el autocompletado no me completa ni una letra supongo que mi rx 480 no da para mas 😂
Si puede pasar, pero ntp, acabo de subir un nuevo video sobre CODESTRAL, un nuevo LLM de Mistral enfocado al código que puedes configurarlo completamente GRATIS de las 2 formas (chat y autocompletado), mediante su API (solo debes pedir acceso como muestro en el video). Dale una revisada y cualquier cosa me comentas por el video, quedo al pendiente. ua-cam.com/video/KgW-YTm5sG8/v-deo.html
lo trate de instalar para usarlo offline, pero no me gustó, está muy lento, incluso cuando trato de usarlo con mi gtx 3050 de lap top, ademas de que no es muy bueno para buscar información en tiempo real.
En caso de que te funcione muy lento intenta instalar un modelo más pequeño, esto es porque los modelos mientras más grandes sean en cuestión de parámetros, mucha más potencia te va exigir. Yo tengo una 4070 y hay modelos que no corren en mi equipo. Incluso hay modelos que necesitan hasta 2 RTX 4090 para correr de forma correcta.
por q sera se me hace muy lento
Probablemente sea por las características de tu computadora y el modelo que elegiste (quizá debas elegir uno más pequeño)
Acabo de subir un video sobre CODESTRAL, y también muestro como conseguir acceso GRATUITO a su API, resultados de benchmarks contra otros modelos (contra CodeLlama, Deepseek y Llama 3 70B) y configurarlo en el editor de código como COPILOT y también conseguir un AUTOCOMPLETADO rápido, te recomiendo verlo si quieres una excelente alternativa. ua-cam.com/video/KgW-YTm5sG8/v-deo.html
Si estás preocupado de que "tu código sensible pueda filtrarse a microsoft", antes de preocuparte por copilot deberias dejar de usar github, una pequeña sugerencia nada mas.
Una muy buena sugerencia.
Wow... es el video de AICodeKing parafraseado en español...
Es mi inspiración a seguir creando excelentes videos acerca del tema y para la comunidad de programadores de habla hispana, en la descripción del video hice referencia a su canal. Gracias por comentar.
@@Conciencia_Artificial Na ni te preocupes. Llevaste a cabo lo que seguro muchos pensaron hacer, eso ya es algo importante jajaja
para local debo tener gpu por que no tengo y me va super leeeeento....
Para la mayoría de modelos si es necesario tener una gpu, solo que intentes correr modelos muy pequeños como phi-3 mini, el modelo más pequeño de Granite-code 3b, los nuevos modelos de Qwen 2 de 0.5b y 1.5b, etc.
Para modelos más grandes si es necesario tener GPU, y mientras más potente mejor. Yo tengo una rtx 4070 12gb de vram y hay modelos que aún así no me corren rápido, como los modelos de 50 billones de parámetros o más.
@@Conciencia_Artificial lastima, debí informarme antes, como desinstalo? Me ayudas?
Muy buenas opciones para tener local, pero requieres una máquina potente, Cierto?
@@AGL0678 no necesariamente, hay muchos modelos open source actualmente que se pueden ejecutar en una pc gama media y con al menos 8-16 gb de ram. En anteriores videos mostramos algunas opciones, que especificaciones tiene tu equipo?
@@Conciencia_Artificial Es una laptop lenovo x1carbón con 8 en ram y core i5 de sexta 😔
☝️🤓
ehm... programar no es dificil.. lo dificil en realidad es el analisis, toma mas tiempo que lo que suele tomar la programacion... pero vere tu video por que esta interesante XD
Jaja para los principiantes puede resultarles un poco complicado, pero muchas gracias por comentar y por apoyar, espero te agrade el contenido!
Programar no es difícil dice, lo que hay que leer...
Otra razón por la que tengo que comprar un PC con gpu dedicada, literal me ahorraría mucho dinero en IA :c
Sería una excelente opción, ya que a partir de ahora comenzarán a salir modelos más pequeños y con excelente rendimiento para poder correrlos de forma local.
Blackbox
Voy a usar lo que me de la gana
Jaja por supuesto que puedes utilizar el que desees, el título solo es para las personas que no quieren utilizarlo o que quieran cambiar a una opción con mayor privacidad, o no quieran pagar los 10 usd/mes.
No. Tú usarás el que la industria y tus recursos te permitan.
pero tenerlo en local no significa que podemos estar usando una base de datos vieja? o no entiendo exactamente que es lo que descarga local
Lo que se descarga local es todo el modelo como tal (la IA completa en un archivo), imagínate que estamos descargando chatgpt-3.5 o GPT4 en un archivo, y ollama (la app que utilizo en el video) se encarga de funcionar como un tipo "servidor" para ejecutar ese modelo (IA) en nuestra computadora. De esta forma al estar ejecutándose el modelo (IA) en nuestra PC, consumirá los recursos de tu equipo (hardware), por lo que si quieres ejecutar modelos muy grandes deberás tener un equipo bastante potente para que lo pueda soportar.
Ahora muy buena observación con la parte que dices de "vieja" o información desactualizada, para resolver este problema podemos utilizar un método llamado "RAG", que básicamente es poder compartir bases de información como archivos PDF, CSV, Word, etc, al modelo para que pueda informarse de algún tema y responder de mejor forma, sin "alucinar" e inventarse la información.
El próximo video que subiré explicaré de una forma muy fácil que es RAG y porque es importante, si gustas estar pendiente. Quiero subir videos educativos también explicando de una forma muy sencilla algunos términos importantes en el ámbito de la IA.
Ahhhh okok, es un detalle importante el RAG , dude porque pensé que la IA iba a pesar inmensamente más tamaño.... Al final me decante por un asistente llamado Supermaven que tiene una opción gratuita y está resultando muy bien, al menos la recomendó mucho MiduDev
@@thepablopissoni apenas estaba viendo esa opción, el detalle es que mucha gente no utiliza herramientas de terceros por la privacidad, pero siempre es bueno que existan diferentes alternativas para todos
Buen dia amigo!
Sobre este video con codeqwen cual es mejor esta opcion o llama 3, al que mencionas en este video:
ua-cam.com/video/hnwkSHcbIhs/v-deo.html
Buena pregunta, pero según he investigado (también eh visto comentarios de programadores) y conforme la tabla comparativa de EvalPlus que muestro en el video, CodeQwen tiene mejor rendimiento en la codificación. Lo que también puedes hacer es implementar Groq para la funcionalidad del chat y CodeQwen para el autocompletado de código.
No le doy mas like porque no puedo. Y eso que no soy de los que dejan comentarios.
Muchas gracias por comentar y apoyar el canal! Comentarios así me ayudan a seguir mejorando el contenido, saludos! 👋
"Filtrarse a Microsoft" ya dejen de estar diciendo ese tipo de cosas. Sean neutrales en la información.
Cuando se menciona "Filtrarse" se hace referencia a que están entrenando sus modelos con nuestro código, a mucha gente no le importa este tema y es válido, yo lo utilicé desde que salió y no me importó el tema de la privacidad (aparte de que no había otras opciones tan buenas). Pero hay personas que, si le importa y mucho el tema de la privacidad de la información, y ahora que están saliendo tantas opciones GRATIS y open source como alternativas, son excelentes opciones para mantener el 100% de privacidad en tu código y proyectos.
Solo estoy haciendo énfasis en la característica más fuerte de estas alternativas, aparte el video está enfocado a eso, demostrar que existen muy buenas opciones que pueden correr de forma local y no depender únicamente de una herramienta de pago.
Igual gracias por dejar tu opinión, siempre es bueno leer diferentes puntos de vista. ¡Saludos!
@@Conciencia_Artificiallo intérprete mal. Buen trabajo!
Demasiado lento!
Puede ser por las especificaciones de tu equipo, si gustas puedes utilizar Codestral de Mistral mediante su API, te comparto el nuevo video donde muestro cómo configurarlo y las ventajas que tiene por si te interesa, y puedes aprovecharlo que se encuentra GRATIS actualmente
ua-cam.com/video/KgW-YTm5sG8/v-deo.htmlsi=FOHdXSGyCYgJ3k77
$100 al año por copilot es un regalo, perder el tiempo en esto no tiene ningún sentido si estás trabajando en proyectos serios.
Entiendo perfectamente tu opinión, pero te comparto mi punto de vista también, pagué desde que salió Github Copilot y la verdad no había alguna alternativa gratuita que se acercara a su rendimiento, por lo cual copilot tenía todo el mercado. Ahora empiezan a salir alternativas gratis y otras open source con un excelente rendimiento, y considero que son excelentes opciones. Muchas personas no les gustan pagar por esas herramientas, ya sea por dinero (aunque ganen muy bien), por temas de privacidad o cualquiera que sea su motivo, pero es válido si no quieren, al salir estas opciones pueden ocuparlas sin ningún problema y también presiona a que Github Copilot siga mejorando, mientras más competencia mayor beneficio para nosotros los consumidores al final.
Sobre todo, se trata de privacidad. Por cierto, ¿que hay de la extensión Continue o de Ollama?¿Hasta que punto son aplicaciones seguras en lo que a privacidad se refiere?
Deja de poner títulos tan ridículos
Hola, el título está diseñado para llamar la atención, pero si has visto el video completo, verás que son una alternativa gratuita a Github Copilot que garantiza privacidad al 100%, a diferencia de Copilot. Te sugiero ver el video completo (si aún no lo has hecho) para confirmar la información. ¡Gracias por tu comentario!