• 1 Votes
    6 Messages
    87 Vues

    @Violence Le soft, c’est juste le système prédictif, après pour le travail (autre qu’informatique, et même, il vaut mieux ne pas nourrir le modèle de code écrit avec les pieds), il vaut mieux avoir des données solides.

    J’ai trouvé des avis sur Llama 2:

    LLaMA 2 (pour Large Language Model with Attention 2) est un modèle d’IA génératif qui peut produire des textes en langage naturel en fonction d’une entrée ou d’une invite donnée. Il peut être utilisé pour diverses applications telles que les chatbots, la création de contenu, la synthèse, la traduction, etc. LLaMA 2 est la deuxième version du LLM de Meta, qui a été publié pour la première fois en février 2023. Selon Meta, LLaMA 2 a été formé sur 40 % de données en plus que LLaMA 1, qui comprend des informations provenant de « sources de données en ligne accessibles au public ». Il affirme également qu’il « surclasse » d’autres LLM comme Falcon et MPT en ce qui concerne les tests de raisonnement, de codage, de compétence et de connaissances.

    Et un truc qui pourrait beaucoup t’intéresser: LLaMa 2 est disponible dans le catalogue de modèles Azure AI, ce qui permet aux développeurs utilisant Microsoft Azure de construire avec lui et de tirer parti de leurs outils cloud-native pour le filtrage de contenu et les fonctions de sécurité. Il est également optimisé pour fonctionner localement sur Windows, offrant aux développeurs un flux de travail transparent lorsqu’ils proposent des expériences d’IA générative à leurs clients sur différentes plateformes. LLaMa 2 est disponible via Amazon Web Services (AWS), Hugging Face et d’autres fournisseurs.

    Pour plus d’info, voir par exemple: https://intelligence-artificielle.developpez.com/actu/346730/Le-modele-LLamA-2-de-Meta-qui-vient-d-etre-publie-ne-serait-pas-open-source-de-l-avis-de-Alessio-Fanelli-Ingenieur-logiciel-associe-chez-Decibel/

    D’après d’autres sources, Wizard Coder Python 13B Q5 serait d’ailleurs extrait de Llama 2 (et tout ça extrait de ChatGPT 4), mais c’est pas vraiment aussi évident de s’y retrouver dans cette jungle.

    Je n’ai pas trouvé d’avis sur Trinity 1.2 7B Q4, un des deux modèles testé par Korben, si ce n’est sa description:

    Trinity is an experimental model merge using the Slerp method. Recommended for daily assistance purposes.

    Ça vaut peut-être aussi le coup de chercher ses limites.

    Il est fort possible que Jan propose à l’avenir des modèles encore plus spécialisés.

    Y’a aussi dans la liste: CodeNinja 7B Q4 4GB de ram

    CodeNinja is good for coding tasks and can handle various languages including Python, C, C++, Rust, Java, JavaScript, and more.

    Et ChatGPT4 en accès direct (données en ligne)