DEJA DE PAGAR por Github Copilot con esta alternativa LOCAL & OPENSOURCE | Tutorial

Поділитися
Вставка
  • Опубліковано 28 тра 2024
  • ¿Estás cansado de pagar $10 al mes por GitHub Copilot? ¡Entonces este video es para ti! En este tutorial, te mostraré cómo reemplazar GitHub Copilot con herramientas gratuitas y poderosas que harán que tu programación sea más eficiente y sin costos adicionales.
    💡 Qué aprenderás en este video:
    1- Por qué deberías considerar alternativas a GitHub Copilot.
    2- Descubre el modelo de código abierto CodeQwen 1.5, una opción poderosa y gratuita.
    3- Cómo instalar y configurar la extensión "Continue" en Visual Studio Code.
    4- Usar Ollama para servir tus modelos como API y aprovechar su poder.
    5- La increíble velocidad de Groq y cómo usarlo.
    6- Cómo combinar diferentes modelos para obtener el mejor rendimiento en autocompletado y generación de código.
    7- ¡Y mucho más!
    🔧 Herramientas y recursos mencionados:
    - GitHub Copilot
    - CodeQwen 1.5
    - Continue Extension para VS Code
    - Ollama API
    - Groq API
    - Google Gemini API
    Estas alternativas no solo te ayudarán a ahorrar dinero, sino que también protegerán tu privacidad y te darán más control sobre tu entorno de programación.
    No olvides darle like 👍, compartir 🔄 y suscribirte 🔔 para más tutoriales increíbles. Si tienes alguna pregunta, déjala en los comentarios y estaré encantado de ayudarte. ¡Nos vemos en el próximo video!
    🌐 Enlaces Útiles:
    Descarga de Ollama: ollama.com/download
    CodeQwen 1.5: ollama.com/library/codeqwen:7b
    Extensión Continue para VS Code: marketplace.visualstudio.com/...
    Groq API: console.groq.com/
    EvalPlus: evalplus.github.io/leaderboar...
    👋 Conecta conmigo en redes sociales:
    Facebook: / kevin.dominguezriquelme.1
    Gracias por ver el video y apoyar el canal. ¡Hasta la próxima! 🚀
    Video Inspirado en AICodeKing
    #programacion #github #githubcopilot #IA #codemasters #Gratis #OpenSource #ai #ias #DesarrolloDeSoftware #TechTips #VSCode #Ollama #Groq #Continue #CodeQwen #Tutorial
  • Наука та технологія

КОМЕНТАРІ • 148

  • @jonabadd
    @jonabadd Місяць тому +9

    Anda extremadamente rapido con groq, gracias por el aporte! Saludos

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Si, la verdad con Groq es una excelente opción! Muchas gracias por comentar y por el apoyo.

    • @user-kn3hb4lt9d
      @user-kn3hb4lt9d Місяць тому

      Usas la extension de Groqopilot en VScode y ya?

    • @rubenleiva2836
      @rubenleiva2836 Місяць тому

      @@user-kn3hb4lt9d Hola yo la estoy por probar

  • @andresparra5828
    @andresparra5828 Місяць тому +22

    Los 7 minutos mas productivos en un video de UA-cam, gracias personalmente uso Codeium pero quería probar otra opción usando en local con ollama, gracias.

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +4

      Muchísimas gracias por esas palabras y el apoyo! Voy a revisar Codeium para analizar cómo funciona y si es posible realizar un video también, muchas gracias por la información 👍

    • @betan1373
      @betan1373 Місяць тому

      Yo uso codeium y tambien quiero probar cual es mejor.

    • @andresparra5828
      @andresparra5828 Місяць тому

      Voy a esperar el vídeo, a lo mejor no le saco el máximo provecho. Saludos y adelante

    • @jdiazco
      @jdiazco Місяць тому +1

      Yo uso codeium y me extraña que aún sea gratuito.

  • @dcloki789
    @dcloki789 Місяць тому

    excelente video, muchas gracias

  • @KedryDR
    @KedryDR Місяць тому +1

    Wuao Bro! muchas gracias, excelente video!!!!!!!!!!!!!!!!!!!!!!!!!!!!

  • @dariocamarro3770
    @dariocamarro3770 Місяць тому

    Gran aporte!!!! Muchas gracias

  • @viniciuszucatti6980
    @viniciuszucatti6980 Місяць тому

    Gracias por el video, lo hice aca y quedo muy bueno

  • @ContenidosUnivtr
    @ContenidosUnivtr Місяць тому

    muchas gracias, me sirvió mucho...saludos!

  • @claudiososa5560
    @claudiososa5560 Місяць тому +1

    Muy bueno Crack!!

  • @miguelangelskrillez7148
    @miguelangelskrillez7148 Місяць тому +3

    Muy bueno. Me suscribo

  • @marcosargandona7095
    @marcosargandona7095 Місяць тому

    Te pasaste... te mando ❤❤❤❤

  • @desdeZeroDev
    @desdeZeroDev Місяць тому +1

    Excelente video, pero como se configura el autocompletado para que use groq en lugar de que sea localmente?

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +1

      Actualmente Groq no lo está permitiendo (lamentablemente), pero tienes una excelente alternativa que acaba de salir para corregir el autocompletado lento, acabo de subir un video sobre CODESTRAL, y también muestro como conseguir acceso GRATUITO a su API, resultados de benchmarks contra otros modelos (contra CodeLlama, Deepseek y Llama 3 70B) y configurarlo en el editor de código como COPILOT y también conseguir un AUTOCOMPLETADO rápido. ua-cam.com/video/KgW-YTm5sG8/v-deo.html
      Te recomiendo mucho verlo si quieres un mejor y rápido autocompletado para resolver tu inconveniente.

  • @luiscahuana310
    @luiscahuana310 Місяць тому

    Gracias por compartir tus conocimientos, como puedo desintalar codeqwen de mi pc?

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +2

      Te comparto los pasos para borrarlo
      1- Abre tu terminal y corre el comando "ollama", y te deben aparecer los comandos disponibles (una lista de comandos).
      2- Ahora para identificar el nombre clave del modelo codeqwen que descargaste corre el comando "ollama list"
      3- Idéntica el nombre del modelo que descargaste, puede ser "codeqwen:latest" o "codeqwen:7b", depende como te aparezca a ti, pero copia el nombre tal cual aparece
      4- Corre el comando "ollama rm codeqwen:latest" y se bórrala de tu equipo el modelo

  • @jhonatanenso9799
    @jhonatanenso9799 Місяць тому +1

    todo esta excelente pero como le quito el resaltado amarillo?? cada vez que me genera codigo porfa si alguien lo sabe he intentado en configuracion y naDA

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Hola, disculpa no entiendo esa parte del resaltado amarillo, nunca me ha sucedido, si aún no lo resuelves envíame mensaje por mi FB (donde igual comparto cosas relacionada a la IA), me mandas captura de pantalla e intento apoyarte. facebook.com/kevin.dominguezriquelme.1

  • @mejia414
    @mejia414 Місяць тому

    gracias

  • @VictorPintowake
    @VictorPintowake Місяць тому

    Muy buen aporte, me funciona todo y rapido, menos el autocompletado, sera otra extencion que la pisa?

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +2

      Si, es posible que el autocompletado pueda tardar, dependerá de las características de tu PC, pero mira, acabo de subir un video sobre CODESTRAL, y también muestro como conseguir acceso GRATUITO a su API, resultados de benchmarks contra otros modelos (contra CodeLlama, Deepseek y Llama 3 70B) y configurarlo en el editor de código como COPILOT y también conseguir un AUTOCOMPLETADO rápido. ua-cam.com/video/KgW-YTm5sG8/v-deo.html

  • @Santiav
    @Santiav Місяць тому +1

    Muy bueno!, ¿sobre que specs de pc corriste lo visto en el video? ¿alcanzará una m2 con 8gb? mmm

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +1

      Mi PC cuenta con:
      - Ryzen 7 5700X
      - 32Gb RAM
      - RTX 4070 12GB
      Puede correr algunos modelos, pero ya modelos

    • @Santiav
      @Santiav Місяць тому

      @@Conciencia_Artificial Mil gracias, muy claro!!

  • @joanalefcacerespocori
    @joanalefcacerespocori Місяць тому +3

    Yo lo uso es muy bueno gente mas si tienes apis key

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +3

      Está excelente la verdad, para trabajar con los modelos de forma local. ¡Gracias por comentar!

  • @raulgabrielhacho9231
    @raulgabrielhacho9231 Місяць тому

    Quiero un modelo para hacer un asistente virtual simple. Y ejecutarla en computadoras básicas. Cual me recomiendas. Que consuma el minimo posible de recursos

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Si ya viste este video, te recomiendo mucho que veas el nuevo video que acabo de subir sobre CODESTRAL, para lo que estás buscando creo que te podría ayudar bastante, ya que es a través de su API, en el video también muestro como conseguir acceso GRATUITO a su API, resultados de benchmarks contra otros modelos (contra CodeLlama, Deepseek y Llama 3 70B) y configurarlo en el editor de código como COPILOT. ua-cam.com/video/KgW-YTm5sG8/v-deo.html
      En caso de que el video no te resulte útil, puedes igual contactarme por FB, y vemos otras alternativas dependiendo tus necesidades facebook.com/kevin.dominguezriquelme.1

  • @andresd.rojasherrera6119
    @andresd.rojasherrera6119 Місяць тому

    Muchasssss gracias por tu tiempo y el aporte, me.he suscrito, tengo dos inquietudes
    1.Cuando dices que trabaje de forma local a que se refiere, es decir que genere código sin conexión a internet?
    2. Esto que nos enseñas puede ser usado en IDE de intellij idea?
    Saludos, quedó atento a tu respuesta

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Gracias a ti por apoyar el contenido. Te respondo conforme tus preguntas.
      1- Si, genera código sin conexión, de echo tú mismo "hosteas" el modelo con ollama, de esta forma el modelo utiliza recursos de tu PC, por ejemplo, según la información oficial de ollama para correr modelos con 7 billones de parámetros como CodeQwen, necesitas 16gb de RAM, obvio si tienes una GPU será mucho más veloz, pero mientras más grande sea el modelo, más recursos utilizará de tu equipo.
      La ventaja real de correr los modelos LLM de forma local, es que hay 100% de privacidad, ya que no hay conexión con servidores de terceros, por ejemplo, podrías utilizar los modelos, aunque no tengas acceso a internet en tu equipo, vayas en un avión, etc.
      2- Si, la extensión de "Continue" también existe para JetBrains, aunque nunca la he usado ahí (es que no utilizo ese IDE). Pero te comparto el sitio web oficial de la extensión para que veas: www.continue.dev

  • @nasst451
    @nasst451 Місяць тому +1

    como puedo hacer para que utilice la gpu, porque solo utiliza la cpu, la grafica siemore permanece en 0 ?

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +1

      Estuve realizando pruebas y en mi caso si utiliza la GPU, déjame revisar si existe alguna configuración para activar dicha opción, o que puede estar sucediendo

  • @murphishouse
    @murphishouse Місяць тому

    Interesante lo de la privacidad aunque por años la enterramos y ahora saben como tenernos agarrados y más cuando se tiende a querer un sirviente Jaime artificial. Preguntó sobre opciones open Source y de privacidad local: cuales responden a generar pruebas unitarias mejor?

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Hola hermano, disculpa por apenas responder, pero para pruebas unitarias podrías utilizar modelos especializados en la codificación como CodeQwen (el que muestro en el video) o bien el nuevo modelo Codestral, que también realizamos un video en el canal: ua-cam.com/video/KgW-YTm5sG8/v-deo.html
      Ambos modelos son excelentes para la programación.

  • @emile239hurincho6
    @emile239hurincho6 Місяць тому

    Si es de manera local tiene se tiene que contar forzosamente con GPU? Es que me gustaria ponerlo en la Laptop que uso para trabajar, solo tiene un i7 7340QM y 16gb de ram. Y ademas el internet de mi trabajo falla bastante como para usar desde la nube.

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Lamentablemente para modelos más grandes si es necesario tener una GPU, ya que son exigentes, pero últimamente han estado saliendo modelos excelentes y más pequeños que podrías probar, como phi-3 mini, Granite sus versiones más pequeñas, Qwen 2 (sus versiones más pequeñas) o igual puedes intentar correr Codestral y CodeQwen.
      Espero haberte podido ayudar. Saludos!

  • @MvtiasL
    @MvtiasL Місяць тому +1

    Hola, muy buen video, me funciona bien CodeQwen, pero no me autocompleta nada, segui todos los pasos pero falta algo, sabes que podria ser ?

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +1

      Estaba revisando que el autocompletado hay ocasiones que demora en generar una solución, igual puede ser tus especificaciones de tu pc.
      Si te interesa acabo de subir un nuevo video sobre Codestral donde puedes utilizar para el auto completado de código de forma 100% gratis su API en tu editor de código. ua-cam.com/video/KgW-YTm5sG8/v-deo.htmlsi=Nl1MxrVsjmVDQCvJ

  • @manuroyce24
    @manuroyce24 Місяць тому

    Y para hacer algo así en intelliJ qué extensión podría usar?

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +2

      Si se encuentra disponible para IntelliJ, te comparto su sitio web oficial para que descargues lo necesario
      www.continue.dev/

    • @manuroyce24
      @manuroyce24 Місяць тому

      @@Conciencia_Artificial Voy a probarla estos días! Muchas gracias ☺

  • @rolandoflores3048
    @rolandoflores3048 18 днів тому

    Hice todo y me salio en ingles el mensaje de confirmación cuando le escribres hola abra algun problema en eseo

    • @Conciencia_Artificial
      @Conciencia_Artificial  17 днів тому

      No, puedes pedirle al modelo "responde en español" para que haga la traducción correcta de lo que te escribió o bien decirle "a partir de ahora responde siempre en español". Pero a veces es normal que respondan en inglés.

  • @diegowh
    @diegowh Місяць тому

    En mi caso va excesivamente lenta la generación de respuestas, será por cuestiones de hardware?

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Si, es posible que el autocompletado pueda tardar debido a las características de tu PC, pero mira, acabo de subir un video sobre CODESTRAL, y también muestro como conseguir acceso GRATUITO a su API, resultados de benchmarks contra otros modelos (contra CodeLlama, Deepseek y Llama 3 70B) y configurarlo en el editor de código como COPILOT y también conseguir un AUTOCOMPLETADO rápido, te recomiendo verlo si quieres una excelente alternativa. ua-cam.com/video/KgW-YTm5sG8/v-deo.html

  • @jennderramos322
    @jennderramos322 Місяць тому

    Hola ¿que tal? En el min 3:51 Cuando dices que podemos usar un modelo para autocompletar y otro para generación de código y chat. ¿Cual recomiendas para cada una de esas funciones? Y como se hace para seleccionar uno para cada cosa diferente?
    Gracias de antemano!

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Hola hermano, en el video mencionó la parte de “tabAutoCompleteModel” en el archivo de configuración de la extensión (config.json) en esa parte puedes cambiar cualquier modelo con ollama que tengas instalado, o bien puedes utilizar un modelo mediante su API como Codestral (que actualmente se encuentra gratis hasta el 1 de agosto del 2024) ua-cam.com/video/KgW-YTm5sG8/v-deo.htmlsi=L7nR_ahSDvNAUQck
      También podrías utilizar modelos locales más pequeños para esas tareas, como Starcoder 2 con 3 billones de parámetros, deepseek-coder con 1.3 billones, etc.
      O si tu pc te lo permite, utiliza de forma local el que menciono en el video para el autocompletado “CodeQwen” con 7 billones de parámetros, es bastante bueno.

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Te dejo un ejemplo del archivo config.json para que quede más claro:
      1- La sección de "models" será los modelos que vas a poder seleccionar en la lista desplegable de la extensión, para chatear con ellos
      2- La sección de "tabAutocompleteModel" es donde configurarás manualmente, que modelo quieres que se encargue específicamente para el autocompletado y sugerencias de código, aquí debes poner algún modelo que hayas descargado con ollama
      3- La parte de "customCommands" es algo que se crea por deafult al instalar la extensión, eso lo puedes dejar como te aparezca
      {
      "models": [
      {
      "model": "AUTODETECT",
      "title": "ollama",
      "provider": "ollama",
      "apiKey": ""
      }
      ],
      "customCommands": [
      {
      "name": "test",
      "prompt": "{{{ input }}}

      Write a comprehensive set of unit tests for the selected code. It should setup, run tests that check for correctness including important edge cases, and teardown. Ensure that the tests are complete and sophisticated. Give the tests just as chat output, don't edit any file.",
      "description": "Write unit tests for highlighted code"
      }
      ],
      "tabAutocompleteModel": {
      "title": "codeqwen:7b ",
      "provider": "ollama",
      "model": "codeqwen:7b "
      }
      }

    • @jennderramos322
      @jennderramos322 Місяць тому

      @@Conciencia_Artificial Ah vale es que no me habia quedado muy claro como se hacia para diferencia el de autocompletado con el de "chat", pero ahora me quedo clarisimo!
      Deje como autocompletado el codeqwen:7b que es el que entendi es el mejor.
      Muchas gracias por tomarte tu tiempo para responder, realmente eres de gran ayuda a la comunidad. Muy buen canal este 👍

  • @cadev_code
    @cadev_code Місяць тому

    Con groq puedo añadir el autocompletado tabién?

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +1

      Si es posible usarlo, pero no es muy buena opción, debido a que te genera demasiado texto explicando el código que quieres crear o autocompletar. O sea, se vuelve digamos muy molesto que siempre genere más texto tipo chat que el código que estás buscando. Te dejo como debes dejar la opción de tabAutocompleteModel por si gustas probarlo.
      "tabAutocompleteModel": {
      "title": "llama3-70b",
      "provider": "groq",
      "model": "llama3-70b",
      "apiKey": "[YOUR_API_KEY]"
      },

  • @Maisonier
    @Maisonier Місяць тому +2

    ¿Cómo se compara qwen con Codestral, Deepseek coder o con codellama?¿harás un vídeo de esa comparativa? like y suscribir!

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +1

      Realizaré una comparativa específica entre esos 2 modelos, porque la competencia se está poniendo buena, mientras tanto, acabo de subir un video sobre CODESTRAL, y también muestro como conseguir acceso GRATUITO a su API, resultados de benchmarks contra otros modelos (contra CodeLlama, Deepseek y Llama 3 70B) y configurarlo en el editor de código como COPILOT. ua-cam.com/video/KgW-YTm5sG8/v-deo.html

  •  Місяць тому +1

    que interasante!!! Soy un aprendiz de codigo, solo que ollama esta en ingles, como lo coloco en español?

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +2

      El sitio web de ollama lo puedes traducir con tu navegador con Google Chrome o Edge.
      La aplicación como tal se utiliza principalmente en la terminal de tu equipo, y esos comandos deben ser en inglés, ya que así fueron configurados.
      Lamentablemente la mayoría de herramientas en el mundo del desarrollo de software son en inglés y muchas veces ya no los traducen a otros idiomas, por lo que mejor intenta acostumbrarte a ver la mayoría de cosas en ese idioma.

    • @canaljoseg0172
      @canaljoseg0172 Місяць тому +1

      Si no sabes ingles entonces estas mal !!! Así de simple !!!

  • @falcantara79
    @falcantara79 Місяць тому

    Se tiene una alternativa así para Visual Studio, en ves de VS Code?

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      La verdad no conozco si exista alguna para visual studio, si llego a saber de alguna te compartiré la información por aquí.

  • @raulramirez6074
    @raulramirez6074 Місяць тому +1

    excelente aporte !! , cual es el requerimiento mínimo de gpu ?

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +2

      Pues dependerá mucho de cada modelo, puedes utilizar también Phi-3 Mini y ese consume aprox 4-5 gb de RAM
      Si quieres un modelo más potente como Starcoder2 15b o el nuevo Codestral 22b, pues necesitarás mínimo 12gb de VRAM, 32gb de RAM.
      Mientras más RAM y VRAM tengas pues mucho mejor 👍

    • @erosjoseadarragajimenez
      @erosjoseadarragajimenez Місяць тому

      @@Conciencia_Artificial Hola buenos días , Una consulta: Siempre veo que hablan en los requerimientos de la VRM, pero nunca de los núcleo Cuda por lo cual me cuestiono si para estos casos por ejemplo sería mejor tener una gráfica como la rtx 4060ti 16GB VRAM que una 4070 de 12gb de VRAM pero con mas nucleos CUDA y hancho de banda. En mi caso no ocupo juegos y quiero ser más productivo al mejor coste posible

  • @abrahamSuc
    @abrahamSuc Місяць тому

    alguna extension o manera de usarlo con visual studio ?

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      La verdad desconozco si hay alguna extensión con visual studio, en caso de que sepa de alguna te estaré compartiendo la info por este comentario.

  • @jvelazquez912
    @jvelazquez912 Місяць тому

    Se encuentra disponible la golang de jetbrain? Pagué la ia de este ide y la di de baja por qué no me convenció.

    • @omarjesusperezortiz75
      @omarjesusperezortiz75 Місяць тому

      yo uso copilot en jetbrain, funciona bien

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Hola, disculpa, no entendí bien tu comentario. Aunque nunca he utilizado JetBrains, estoy al tanto de que la extensión "Continue" está disponible para esta plataforma. En su página oficial puedes encontrar el enlace para la extensión, aquí te lo paso por si necesitas la información: www.continue.dev

  • @santievangelio4251
    @santievangelio4251 Місяць тому

    Hola, me da este error en el primer paso:
    PS C:\Users\santi> ollama run codeqwen
    ollama : El término 'ollama' no se reconoce como nombre de un cmdlet, función, archivo de script o programa ejecutable. Compruebe si
    escribió correctamente el nombre o, si incluyó una ruta de acceso, compruebe que dicha ruta es correcta e inténtelo de nuevo.
    En línea: 1 Carácter: 1
    + ollama run codeqwen
    + ~~~~~~
    + CategoryInfo : ObjectNotFound: (ollama:String) [], CommandNotFoundException
    + FullyQualifiedErrorId : CommandNotFoundException

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Por lo que veo, no está cargando tu terminal los comandos de ollama, puede ser por cuestiones de permisos o quizá debas agregar ollama al PATH de windows para que puedas ejecutar esos comandos desde cualquier ubicación de tu terminal.
      O la otra podría ser que necesites reiniciar tu equipo.
      Disculpa por la demora en la respuesta, pero ¿Sigues teniendo este problema o ya lo lograste resolver?

  • @LeCranky
    @LeCranky Місяць тому

    Como se que funciona solamente de forma local?

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Cuando instalas los modelos con ollama y los corres, se están ejecutando con los recursos de tu PC, por lo que deberás tener una PC con buen hardware (igual dependerá que modelos quieras correr), pero suficiente RAM y VRAM si son necesarios. También puedes correrlos con APIs de modelos comerciales como GPT-4o, Claude, entre otros, solo que aquí dependerá lo que tú quieras y necesites y como configures tu archivo config.json (el archivo de configuración de la extensión Continue), que igual explico en el video.
      Acabo de subir un video sobre CODESTRAL, y también muestro como conseguir acceso GRATUITO a su API, resultados de benchmarks contra otros modelos (contra CodeLlama, Deepseek y Llama 3 70B) y configurarlo en el editor de código como COPILOT. ua-cam.com/video/KgW-YTm5sG8/v-deo.html

  • @canaljoseg0172
    @canaljoseg0172 Місяць тому

    Me molesta de Continúe la indexación de archivos, ¿hay alguna forma de desactivarlo?

  • @carlosredfield
    @carlosredfield Місяць тому

    amigo hice el paso a paso y todo bien, pero el autocomplete tarda mas de 10 seg tengo grafica una 6700 XT

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Estoy viendo que para algunos usuarios no está utilizando su GPU, probablemente sea tu caso, pero aún sigo viendo a que se debe este problema, si encuentro algo te comento igual por aquí

  • @fernandochazarreta8509
    @fernandochazarreta8509 Місяць тому +2

    Una pena, no funciono.. he seguido los pasos tal cual y nada, busque en la documentación y sigue sin funcionar

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +3

      ¿Te está arrojando algún error? Si gustas escríbeme por mi cuenta de facebook e intento apoyarte facebook.com/kevin.dominguezriquelme.1
      También con otro equipo que realicé pruebas tuve problemas, pero todos los errores eran del archivo de config.json

  • @carlosfelipediazlombana2391
    @carlosfelipediazlombana2391 Місяць тому

    Alguna idea del por qué el autocompletado no funciona y en cambio me da un salto de linea cada vez que escribo cualquier cosa?

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Estás utilizando el modelo de CodeQwen? Debería de funcionar correctamente, intenta instalando un modelo más pequeño para descartar que sea por los requisitos de tu pc, o en cambio intenta utilizar el API de Codestral que muestro en este video, se encuentra gratis hasta el 1 de Agosto del 2024: ua-cam.com/video/KgW-YTm5sG8/v-deo.html

  • @cristopherdelacruz119
    @cristopherdelacruz119 Місяць тому

    Esta muy bueno, me gustó Groq, pero no ofrece autocompletado y no me estaba funcionado el que mostraste, le puse el de Codestral y me funcionó, pero eventualmente lo pondrán de paga, que otras opciones recomiendas?
    Pd: Nuevo sub xd

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Dependerá de las especificaciones de tu equipo, pero en caso de que CodeQwen no te haya funcionado bien o muy lento, quizá debas cambiar a un modelo más pequeño, como StarCoder 2 3B, CodeGemma 2B, Deepseek-coder 1B, Granite-code 3B, para el autocompletado
      Muchas gracias por comentar y apoyar el contenido! 👋

  • @FelipeTresesenta
    @FelipeTresesenta Місяць тому

    Grande, está excelente la opción, funciona en IntelliJ ?

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +3

      Me parece que aún NO, actualmente solo está para VS Code y JetBrains
      En su sitio web aparece más información, pero ojalá lo lleven a otros editores ya que es una excelente opción
      www.continue.dev/

    • @FelipeTresesenta
      @FelipeTresesenta Місяць тому

      @@Conciencia_Artificial IntelliJ es de jetbrains 👏🏼👏🏼👏🏼👏🏼

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Muchas gracias por la aclaración, es que nunca he utilizado sus editores, aunque he leído que son muy buenos

  • @BricoBit
    @BricoBit Місяць тому

    Lo he probado con ollama y con lm studio como proveedor y el autocompletado no me completa ni una letra supongo que mi rx 480 no da para mas 😂

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Si puede pasar, pero ntp, acabo de subir un nuevo video sobre CODESTRAL, un nuevo LLM de Mistral enfocado al código que puedes configurarlo completamente GRATIS de las 2 formas (chat y autocompletado), mediante su API (solo debes pedir acceso como muestro en el video). Dale una revisada y cualquier cosa me comentas por el video, quedo al pendiente. ua-cam.com/video/KgW-YTm5sG8/v-deo.html

  • @rpmvicmetal8468
    @rpmvicmetal8468 Місяць тому

    lo trate de instalar para usarlo offline, pero no me gustó, está muy lento, incluso cuando trato de usarlo con mi gtx 3050 de lap top, ademas de que no es muy bueno para buscar información en tiempo real.

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +1

      En caso de que te funcione muy lento intenta instalar un modelo más pequeño, esto es porque los modelos mientras más grandes sean en cuestión de parámetros, mucha más potencia te va exigir. Yo tengo una 4070 y hay modelos que no corren en mi equipo. Incluso hay modelos que necesitan hasta 2 RTX 4090 para correr de forma correcta.

  • @alexanderherreratorres1119
    @alexanderherreratorres1119 Місяць тому

    por q sera se me hace muy lento

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Probablemente sea por las características de tu computadora y el modelo que elegiste (quizá debas elegir uno más pequeño)

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Acabo de subir un video sobre CODESTRAL, y también muestro como conseguir acceso GRATUITO a su API, resultados de benchmarks contra otros modelos (contra CodeLlama, Deepseek y Llama 3 70B) y configurarlo en el editor de código como COPILOT y también conseguir un AUTOCOMPLETADO rápido, te recomiendo verlo si quieres una excelente alternativa. ua-cam.com/video/KgW-YTm5sG8/v-deo.html

  • @videovideo166
    @videovideo166 20 днів тому +1

    Si estás preocupado de que "tu código sensible pueda filtrarse a microsoft", antes de preocuparte por copilot deberias dejar de usar github, una pequeña sugerencia nada mas.

  • @joelapablaza7722
    @joelapablaza7722 Місяць тому

    Wow... es el video de AICodeKing parafraseado en español...

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Es mi inspiración a seguir creando excelentes videos acerca del tema y para la comunidad de programadores de habla hispana, en la descripción del video hice referencia a su canal. Gracias por comentar.

    • @joelapablaza7722
      @joelapablaza7722 Місяць тому

      @@Conciencia_Artificial Na ni te preocupes. Llevaste a cabo lo que seguro muchos pensaron hacer, eso ya es algo importante jajaja

  • @Xander914
    @Xander914 Місяць тому

    para local debo tener gpu por que no tengo y me va super leeeeento....

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +1

      Para la mayoría de modelos si es necesario tener una gpu, solo que intentes correr modelos muy pequeños como phi-3 mini, el modelo más pequeño de Granite-code 3b, los nuevos modelos de Qwen 2 de 0.5b y 1.5b, etc.
      Para modelos más grandes si es necesario tener GPU, y mientras más potente mejor. Yo tengo una rtx 4070 12gb de vram y hay modelos que aún así no me corren rápido, como los modelos de 50 billones de parámetros o más.

    • @Xander914
      @Xander914 Місяць тому

      @@Conciencia_Artificial lastima, debí informarme antes, como desinstalo? Me ayudas?

  • @AGL0678
    @AGL0678 13 днів тому

    Muy buenas opciones para tener local, pero requieres una máquina potente, Cierto?

    • @Conciencia_Artificial
      @Conciencia_Artificial  12 днів тому +1

      @@AGL0678 no necesariamente, hay muchos modelos open source actualmente que se pueden ejecutar en una pc gama media y con al menos 8-16 gb de ram. En anteriores videos mostramos algunas opciones, que especificaciones tiene tu equipo?

    • @AGL0678
      @AGL0678 12 днів тому

      @@Conciencia_Artificial Es una laptop lenovo x1carbón con 8 en ram y core i5 de sexta 😔

  • @ColoqueNombreAqui
    @ColoqueNombreAqui Місяць тому +1

    ☝️🤓

  • @albert_ac1045
    @albert_ac1045 Місяць тому

    ehm... programar no es dificil.. lo dificil en realidad es el analisis, toma mas tiempo que lo que suele tomar la programacion... pero vere tu video por que esta interesante XD

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Jaja para los principiantes puede resultarles un poco complicado, pero muchas gracias por comentar y por apoyar, espero te agrade el contenido!

    • @gabrielpaez321
      @gabrielpaez321 Місяць тому

      Programar no es difícil dice, lo que hay que leer...

  • @CarlosWolfram
    @CarlosWolfram Місяць тому

    Otra razón por la que tengo que comprar un PC con gpu dedicada, literal me ahorraría mucho dinero en IA :c

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Sería una excelente opción, ya que a partir de ahora comenzarán a salir modelos más pequeños y con excelente rendimiento para poder correrlos de forma local.

  • @Edwarrior96
    @Edwarrior96 Місяць тому

    Blackbox

  • @MageLink
    @MageLink Місяць тому

    Voy a usar lo que me de la gana

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +2

      Jaja por supuesto que puedes utilizar el que desees, el título solo es para las personas que no quieren utilizarlo o que quieran cambiar a una opción con mayor privacidad, o no quieran pagar los 10 usd/mes.

    • @jdiazco
      @jdiazco Місяць тому

      No. Tú usarás el que la industria y tus recursos te permitan.

  • @thepablopissoni
    @thepablopissoni Місяць тому

    pero tenerlo en local no significa que podemos estar usando una base de datos vieja? o no entiendo exactamente que es lo que descarga local

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +2

      Lo que se descarga local es todo el modelo como tal (la IA completa en un archivo), imagínate que estamos descargando chatgpt-3.5 o GPT4 en un archivo, y ollama (la app que utilizo en el video) se encarga de funcionar como un tipo "servidor" para ejecutar ese modelo (IA) en nuestra computadora. De esta forma al estar ejecutándose el modelo (IA) en nuestra PC, consumirá los recursos de tu equipo (hardware), por lo que si quieres ejecutar modelos muy grandes deberás tener un equipo bastante potente para que lo pueda soportar.
      Ahora muy buena observación con la parte que dices de "vieja" o información desactualizada, para resolver este problema podemos utilizar un método llamado "RAG", que básicamente es poder compartir bases de información como archivos PDF, CSV, Word, etc, al modelo para que pueda informarse de algún tema y responder de mejor forma, sin "alucinar" e inventarse la información.
      El próximo video que subiré explicaré de una forma muy fácil que es RAG y porque es importante, si gustas estar pendiente. Quiero subir videos educativos también explicando de una forma muy sencilla algunos términos importantes en el ámbito de la IA.

    • @thepablopissoni
      @thepablopissoni Місяць тому

      Ahhhh okok, es un detalle importante el RAG , dude porque pensé que la IA iba a pesar inmensamente más tamaño.... Al final me decante por un asistente llamado Supermaven que tiene una opción gratuita y está resultando muy bien, al menos la recomendó mucho MiduDev

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +1

      @@thepablopissoni apenas estaba viendo esa opción, el detalle es que mucha gente no utiliza herramientas de terceros por la privacidad, pero siempre es bueno que existan diferentes alternativas para todos

  • @juanchavez4074
    @juanchavez4074 Місяць тому

    Buen dia amigo!
    Sobre este video con codeqwen cual es mejor esta opcion o llama 3, al que mencionas en este video:
    ua-cam.com/video/hnwkSHcbIhs/v-deo.html

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Buena pregunta, pero según he investigado (también eh visto comentarios de programadores) y conforme la tabla comparativa de EvalPlus que muestro en el video, CodeQwen tiene mejor rendimiento en la codificación. Lo que también puedes hacer es implementar Groq para la funcionalidad del chat y CodeQwen para el autocompletado de código.

  • @AlfonsoMontesdeOca
    @AlfonsoMontesdeOca Місяць тому

    No le doy mas like porque no puedo. Y eso que no soy de los que dejan comentarios.

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +1

      Muchas gracias por comentar y apoyar el canal! Comentarios así me ayudan a seguir mejorando el contenido, saludos! 👋

  • @pirrastorres7241
    @pirrastorres7241 Місяць тому

    "Filtrarse a Microsoft" ya dejen de estar diciendo ese tipo de cosas. Sean neutrales en la información.

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому

      Cuando se menciona "Filtrarse" se hace referencia a que están entrenando sus modelos con nuestro código, a mucha gente no le importa este tema y es válido, yo lo utilicé desde que salió y no me importó el tema de la privacidad (aparte de que no había otras opciones tan buenas). Pero hay personas que, si le importa y mucho el tema de la privacidad de la información, y ahora que están saliendo tantas opciones GRATIS y open source como alternativas, son excelentes opciones para mantener el 100% de privacidad en tu código y proyectos.
      Solo estoy haciendo énfasis en la característica más fuerte de estas alternativas, aparte el video está enfocado a eso, demostrar que existen muy buenas opciones que pueden correr de forma local y no depender únicamente de una herramienta de pago.
      Igual gracias por dejar tu opinión, siempre es bueno leer diferentes puntos de vista. ¡Saludos!

    • @pirrastorres7241
      @pirrastorres7241 Місяць тому

      @@Conciencia_Artificiallo intérprete mal. Buen trabajo!

  • @domingovaldes8371
    @domingovaldes8371 Місяць тому

    Demasiado lento!

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +1

      Puede ser por las especificaciones de tu equipo, si gustas puedes utilizar Codestral de Mistral mediante su API, te comparto el nuevo video donde muestro cómo configurarlo y las ventajas que tiene por si te interesa, y puedes aprovecharlo que se encuentra GRATIS actualmente
      ua-cam.com/video/KgW-YTm5sG8/v-deo.htmlsi=FOHdXSGyCYgJ3k77

  • @marceloacs
    @marceloacs Місяць тому

    $100 al año por copilot es un regalo, perder el tiempo en esto no tiene ningún sentido si estás trabajando en proyectos serios.

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +8

      Entiendo perfectamente tu opinión, pero te comparto mi punto de vista también, pagué desde que salió Github Copilot y la verdad no había alguna alternativa gratuita que se acercara a su rendimiento, por lo cual copilot tenía todo el mercado. Ahora empiezan a salir alternativas gratis y otras open source con un excelente rendimiento, y considero que son excelentes opciones. Muchas personas no les gustan pagar por esas herramientas, ya sea por dinero (aunque ganen muy bien), por temas de privacidad o cualquiera que sea su motivo, pero es válido si no quieren, al salir estas opciones pueden ocuparlas sin ningún problema y también presiona a que Github Copilot siga mejorando, mientras más competencia mayor beneficio para nosotros los consumidores al final.

    • @DronerStudioCandelaria
      @DronerStudioCandelaria Місяць тому +1

      Sobre todo, se trata de privacidad. Por cierto, ¿que hay de la extensión Continue o de Ollama?¿Hasta que punto son aplicaciones seguras en lo que a privacidad se refiere?

  • @S3D8
    @S3D8 Місяць тому

    Deja de poner títulos tan ridículos

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +1

      Hola, el título está diseñado para llamar la atención, pero si has visto el video completo, verás que son una alternativa gratuita a Github Copilot que garantiza privacidad al 100%, a diferencia de Copilot. Te sugiero ver el video completo (si aún no lo has hecho) para confirmar la información. ¡Gracias por tu comentario!