Ollama + Open WebUI : l'IA LLM opensource, gratuite, auto-hébergée et sécurisée sous Docker !

Поділитися
Вставка

КОМЕНТАРІ • 37

  • @ixion8666
    @ixion8666 8 місяців тому +1

    Vidéo trés intéressante! Franchement j'attends le Jeudi avec impatience, merci pour cette découverte. Hâte de voir la suite concernant l'IA.

  • @yblisatya
    @yblisatya 8 місяців тому +1

    Super, merci, je viens de le mettre en place sur mon serveur, j'ai pu faire tourner des tout petit modèles, et je l'ai aussi testé sur mon macbook M1 pro, où là j'ai pu faire tourner des plus gros modèle, d'ailleurs j'ai pu aussi interfacer l'API de mon ollama local sur mon n8n pour des flux un peu personnalisé :) merci encore pour cette vidéo :)

    • @m.bouanane4455
      @m.bouanane4455 8 місяців тому

      Merci pour l'info.
      Savez-vous si on peut entraîner un ou plusieurs modèles avec des fichiers en local et l'interroger par rapport à ces fichiers ?
      Merci par avance

  • @GeeKeWi
    @GeeKeWi 8 місяців тому

    Merci pour cette vidéo, sympa de découvrir un peu plus le potentiel de docker avec toi.
    +1 pour la vidéo de la gestion des réseaux

    • @GuiPoM
      @GuiPoM  8 місяців тому

      Peut etre un jour ! 🤞

  • @metalrearden97
    @metalrearden97 8 місяців тому

    merci pour cette video. Cela donne envie de tester. Et waow la response sur la question! Chacun sait que la réponse a cette grande question est "42".

  • @ioio7408
    @ioio7408 7 місяців тому +2

    [RESOLU] Merci aussi. Je pose une question à la communauté au cas ou quelqu'un à été confronté au même problème que moi. Le GPU (nvidia4060 en l'occurrence) n'est pas du tout détecté par le docker ollama. j'ai installé le système sur un Win 11 avec Docker Desktop. Tout fonctionne , j'ai mis openwebui, accès par reverse proxy, avec tout plein de models qui fonctionnent, mais sur le CPU. J'ai tellement galéré et besoin de résoudre le problème que j'apporterai la réponse si personne me la donne. ca pourra peut être aider. Habituellement je fais tout sur mon Nas qui existe un peu Grace à toi , mais cette fois ci les performances réclamées nécessitaient que j'installe sur une autre machine, c'est pour cela Win11.

  • @christiansalmon3904
    @christiansalmon3904 8 місяців тому +3

    Intéressant, je m'étais justement gardé sous le coude une autre video qui parlait de ollama : ua-cam.com/video/IJYC6zf86lU/v-deo.html avec en UI:, AnythingLLM qui permet d'intégrer ses propres documents. J'avais déjà testé privateGPT en local sur un linux avec GPU nvidia (en installant les drivers cuda) et ça fonctionnait plutôt bien. Pour la partie domotique, sous Home Assistant, il y a un plugin qui existe a brancher sur un GPT local (ou chatGPT) : ua-cam.com/video/pAKqKTkx5X4/v-deo.html j'ai pas encore testé , ça demande de faire son propre matériel pour la reconnaissance vocal. En tout cas le futur est prometteur, nos assistants vont enfin comprendre des vrais phrases.

    • @Noshiru
      @Noshiru 6 місяців тому

      Salut Christian ! Je me permet de rebondir sur ce que tu dis car je suis actuellement entrain de tester ollama + anythingLLM. As-tu fait d'autres choses depuis ? Dans l'entrainement d'IA surtout je veux dire. Car le but pour moi c'est de trouver une IA open source, de pouvoir lui donner une doc, et via une API d'y accéder et de poser des questions.. :) Merci !

  • @PlaGiatMan
    @PlaGiatMan 8 місяців тому

    Salut, encore une super vidéo =) ce serait top que tu fasses une vidéo supplémentaire sur le sujet pour expliquer comment utiliser un GPU en détail =D

    • @GuiPoM
      @GuiPoM  8 місяців тому

      Sur ce type de projet l'intérêt est justement que si la ressource GPU est disponible, elle sera utilisée automatiquement, ce qui rend les choses très simple à configurer.
      Si un jour je tombe sur une image nécessitant de définir l'accès aux ressources, là oui, mais dans le cadre de cette vidéo j'ai montré ce qu'il faut faire pour activer une carte nVidia.

  • @neutrino85fr
    @neutrino85fr 8 місяців тому

    Merci ! C'est génial ! Je m'en vais mettre à genoux mon vieux core i7 '^^

  • @remitheguik1303
    @remitheguik1303 8 місяців тому

    c'est trop stylé vraiment ! :D

    • @GuiPoM
      @GuiPoM  8 місяців тому

      Merci!

  • @Alex-rg1rz
    @Alex-rg1rz Місяць тому

    Hello merci ! j'ai enfin pus faire fonctionner dans docker a chaque fois sur d'autres tuto ca me trouvai pas le modèle dans webui

    • @GuiPoM
      @GuiPoM  Місяць тому

      Génial !

  • @Tigres36
    @Tigres36 8 місяців тому

    Merci pour tes videos !! beau travail !!!

    • @GuiPoM
      @GuiPoM  8 місяців тому

      Avec plaisir 😊

  • @jackbauer322
    @jackbauer322 7 місяців тому

    et pour un deploiement en production autre que local ?

  • @jbsness5375
    @jbsness5375 6 місяців тому

    Merci pour ce partage ! Petite question de débutant comment faire si tu veux update la version de Open WebUI ?, merci.

    • @GuiPoM
      @GuiPoM  6 місяців тому +1

      J'en ai parlé dans une vidéo dédiée aux mises à jour de conteneur docker, ca se fait relativement simplement via pull/up, ou avec l'interface graphique de Portainer.

    • @jbsness5375
      @jbsness5375 6 місяців тому

      @@GuiPoM merci je vais aller regarder ta vidéo !

  • @Sanji445
    @Sanji445 7 місяців тому

    Pour ton NUC, est-ce que tu es capable d'utiliser le iGPU intégré dans ce use case ? Est-ce qu'il y'a déjà un intérêt pour utiliser un iGPU ou pas ? Je pense qu'un iGPU utilise la mémoire partagée du NUC non ?

    • @GuiPoM
      @GuiPoM  7 місяців тому

      le iGPU intel n'est pas un accélérateur CUDA. On ne parle pas de vidéo dans ce type de situation. Donc ... non !

    • @Sanji445
      @Sanji445 7 місяців тому

      @@GuiPoM pardon j'ai mal formulé ma question, je voulais juste savoir s'il existe un moyen de tirer profit d'un iGPU pour du LLM opensource, je présume que non..

  • @fredpourlesintimes
    @fredpourlesintimes 6 місяців тому

    Dommage que tu parles pas de la génération d'image

  • @kristof9497
    @kristof9497 8 місяців тому

    Merci. Je vais essayer.

    • @GuiPoM
      @GuiPoM  7 місяців тому

      Bonne chance

  • @RIPrisitas
    @RIPrisitas 8 місяців тому

    Open-WebUI je penses que pour le nom ils ont juste voulu dire que c'est une copie de l'UI de OpenAI

    • @GuiPoM
      @GuiPoM  8 місяців тому

      Possible !

  • @Bakitto390
    @Bakitto390 8 місяців тому

    Le cas d'usage 1 est exactement ce que j'attends depuis des années et éviter de partager mes données avec Open Ai

    • @GuiPoM
      @GuiPoM  8 місяців тому +1

      👍

  • @dandyiy
    @dandyiy 5 місяців тому

    comment avoir une version non censuré des modèles ??

    • @GuiPoM
      @GuiPoM  5 місяців тому

      Quand la variante existe, il suffit de prendre uncensored.
      Sinon il faut faire l'installation du modèle à la main

  • @nico.m8346
    @nico.m8346 8 місяців тому

    comment il va faire Guillaume dans le noir.

    • @GuiPoM
      @GuiPoM  8 місяців тому

      J'avais vu ton commentaire mais je ne l'avais pas compris. Après l'avoir relu, j'ai toujours pas compris 😁

  • @SpectraFire44
    @SpectraFire44 7 місяців тому

    J'utilise un vieux pc qui ne vaut pas grand chose et je parvient a faire tourner Mistral 7B en local 🤣