Actualités High-Tech

1.5k Sujets 7.6k Messages
  • 3 Votes
    6 Messages
    139 Vues

    ouai on se fait bien baisé dans tous les sens.

  • 1 Votes
    4 Messages
    100 Vues

    De mon côté, je suis plutôt porté sur les board Hard Kernel que je trouve excellentes, ce sont de très bon produit.

    Faites y un tour ^^

    https://www.hardkernel.com/product/

  • 4 Votes
    2 Messages
    88 Vues

    Ce genre de pirate là, je veux bien les voir en taule.

  • 2 Votes
    1 Messages
    46 Vues

    Europol a encore fait le ménage dans le monde du hacking et de la vente de données piratés

    https://www.commentcamarche.net/securite/piratage/28027-genesis-market/

  • 0 Votes
    12 Messages
    109 Vues

    Oui en effet c’est ça recap de la semaine jeux vidéo tres bien fait merci ! Moi je trouvais bien sympa l’émission !

  • 4 Votes
    6 Messages
    127 Vues

    Ba après c’est comme tout, l’Open Source c’est bien mais il faut aussi et surtout utiliser des logiciels à jour. Et ça c’est valable que cela soit opensource ou propriétaire.

  • 2 Votes
    6 Messages
    204 Vues

    merci la NSA qui pousse derrière

  • 1 Votes
    1 Messages
    46 Vues

    Selon plusieurs sources la pub était dès le début présente dans les converations Bing Chat – mais les réclames ne s’affichaient pas chez tous les utilisateurs.

    Microsoft dévoile sur son blog son plan pour intégrer des publicités dans les conversations Bing Chat, son chatbot basé sur l’intelligence artificielle. Avec plus de 100 millions d’utilisateurs actifs quotidiens, cette évolution était attendue. L’entreprise a expliqué que les publicités apparaîtront dans les réponses du chatbot, tout comme dans les résultats de recherche traditionnels.

    En réalité, les publicités dans Bing Chat ne sont pas tout à fait une nouveauté. La firme teste différentes modalités d’implémentation depuis plusieurs semaines – mais celles-ci ne s’affichaient pas chez tous les utilisateurs. Seul un petit sous-ensemble des utilisateurs de Bing Chat les voient s’afficher. De notre côté nous avons beau avoir essayé de les afficher, les publicités restent pour l’instant absentes de nos conversations avec l’IA de Bing.

    Puisqu’on parle de vrai plan d’attaque, le post de blog revient longuement sur le modèle publicitaire que Microsoft souhaite développer avec l’IA. Le but est de ne pas trop chambouler les fondamentaux du web, en permettant à son économie de se maintenir et de progresser. Microsoft souligne vouloir apporter aux sources plus de traffic pur en les intégrant aux réponses de Bing Chat.

    Ce placement sera automatisé, vu que contrairement au référencement payant classique il n’est pas vraiment possible d’acheter une suite de mots clés. Du coup, Microsoft placera lui-même ces publités en fonction de leur pertinence (on imagine que cela sera décidé par le modèle GPT-4 utilisé par la firme). Les revenus générés seront alors automatiquement partagés entre les éditeurs et Microsoft.

    Dans le détail, on ne sait pas exactement comment l’entreprise compte gérer le nombre et fréquence de ces publicités, ni si ces publicités seront restraintes à des encadrés textuels, des liens hypertexte ou si des formats plus importants, visibles, différenciateurs, voire intrusifs seront utilisés.

    Le vice-président de Microsoft, Yusuf Mehdi, explique dans le billet de blog que l’entreprise veut “partager les revenus publicitaires avec les partenaires dont le contenu a contribué à la réponse du chat”, mais cela ne répond pas à la question de l’équilibre que Microsoft prévoit de trouver entre les réponses avec et sans publicité, entre autres points à éclaircir.

    Comme nous le disions plus haut, des publicités ont déjà été intégrées à l’expérience de chat depuis le lancement de la version preview en février. Elles apparaissant le plus souvent sous forme de liens sponsorisés et à l’intérieur des résultats d’achat chez certains utilisateurs.

    Source: https://www.presse-citron.net/cetait-previsible-bing-chat-glisse-des-pubs-dans-vos-conversations/

  • 2 Votes
    2 Messages
    46 Vues

    Encore une preuve que tout ca n’est que du cinéma :ahah:

  • 2 Votes
    4 Messages
    103 Vues

    Et la pause, c’est vraiment par peur ou juste pour rattraper le retard de certaines sociétés ?

    De toute façon, ça se présente mal pour eux: https://planete-warez.net/topic/3473/sept-modèles-d-a-i-générative-en-open-source

  • Sept modèles d'A.I. générative en open source

    1
    0 Votes
    1 Messages
    51 Vues

    Après le piratage de chatgpt-3 (https://planete-warez.net/topic/3391/vous-pouvez-maintenant-exécuter-un-modèle-d-ia-de-niveau-gpt-3-sur-votre-ordinateur-portable-votre-téléphone-et-votre-raspberry-pi) une société met gratuitement sept modèles à disposition des chercheurs.

    Le fabricant d’ordinateurs Cerebras a publié sept modèles d’IA open source, à titre de ressource pour la communauté des chercheurs. Tout l’inverse du virage pris par l’éditeur de ChatGPT.

    716aa4db-adee-4d57-b9a5-025f0100082a-image.png
    Le supercalculateur Andromeda de Cerebras a été utilisé pour entraîner sept programmes linguistiques similaires au ChatGPT d’OpenAI. Image : Cerebras.

    Le monde de l’intelligence artificielle, et plus particulièrement la branche très populaire de « l’IA générative », qui consiste à créer automatiquement des textes et des images, risque de se refermer sur lui-même en raison de l’effet dissuasif des entreprises qui décident de ne pas publier les détails de leurs travaux de recherche.

    Mais cette tendance au secret incite aussi certains acteurs du monde de l’IA à intervenir et à combler le vide en matière de divulgation.

    Mardi, le pionnier de l’IA Cerebras Systems, fabricant d’un ordinateur dédié à l’IA, a publié en source ouverte plusieurs versions de programmes d’IA générative à utiliser sans restriction.

    Les programmes sont « formés » par Cerebras, c’est-à-dire qu’ils sont amenés à des performances optimales grâce au puissant superordinateur de l’entreprise, ce qui réduit une partie du travail que doivent effectuer les chercheurs extérieurs.

    « Les entreprises prennent des décisions différentes de celles qu’elles ont prises il y a un an ou deux, et nous ne sommes pas d’accord avec ces décisions », a déclaré Andrew Feldman, cofondateur et PDG de Cerebras, dans une interview accordée à ZDNET, faisant allusion à la décision d’OpenAI, le créateur de ChatGPT, de ne pas publier de détails techniques lorsqu’il a dévoilé son dernier programme d’IA générative ce mois-ci, GPT-4. Une décision qui a été largement critiquée dans le monde de la recherche en matière d’IA.

    2e1846c0-1869-4ad7-adf8-989d1dcf5534-image.png

    25c5a3f7-67aa-48d3-9ce4-74aed8bfa045-image.png

    Le code est disponible sur le site web de la start-up d’IA Hugging Face et sur GitHub

    « Nous pensons qu’une communauté ouverte et dynamique - pas seulement composée de chercheurs, et pas seulement de trois, quatre, cinq ou huit personnes propriétaires d’un LLM, mais une communauté dynamique dans laquelle des start-up, des sociétés de taille moyenne et des entreprises forment de grands modèles de langage - est bonne pour nous et pour les autres », assure-t-il.

    Le terme « grand modèle linguistique » fait référence à des programmes d’IA basés sur les principes de l’apprentissage automatique (machine learning), dans lesquels un réseau neuronal capture la distribution statistique des mots dans un échantillon de données. Ce processus permet à un grand modèle linguistique de prédire le mot suivant dans la séquence. Cette capacité est à la base de programmes d’IA générative populaires tels que ChatGPT.

    Le même type d’approche d’apprentissage automatique s’applique à l’IA générative dans d’autres domaines, comme Dall·E d’OpenAI, qui génère des images à partir d’une suggestion de phrase.

    Cerebras a mis en ligne sept grands modèles de langage dans le même style que le programme GPT d’OpenAI, qui a lancé l’engouement pour l’IA générative en 2018. Le code est disponible sur le site web de la start-up d’IA Hugging Face et sur GitHub.

    Les programmes varient en taille, de 111 millions de paramètres, ou poids neuronaux, à 13 milliards. Un plus grand nombre de paramètres rend un programme d’IA plus puissant, de manière générale, de sorte que le code Cerebras offre une gamme de performances.

    L’entreprise a publié non seulement les sources des programmes, en format Python et TensorFlow, sous la licence libre Apache 2.0, mais aussi les détails du mode d’entraînement qui a permis d’amener les programmes à un état de fonctionnalité développé.

    Cette divulgation permet aux chercheurs d’examiner et de reproduire le travail de Cerebras.

    Selon Andrew Feldman, c’est la première fois qu’un programme de type GPT est rendu public « en utilisant des techniques d’entraînement de pointe ».

    D’autres travaux publiés sur l’apprentissage de l’IA ont soit dissimulé des données techniques, comme le GPT-4 d’OpenAI, soit les programmes n’ont pas été optimisés lors de leur développement, ce qui signifie que les données fournies au programme n’ont pas été adaptées à la taille du programme, comme l’explique un article du blog technique de Cerebras.

    84a4c35c-45d2-4145-9420-a5fb5f843c25-image.png

    Les modèles linguistiques de cette taille sont notoirement gourmands en ressources informatiques. Les travaux de Cerebras publiés mardi ont été développés sur une grappe de 16 de ses ordinateurs CS-2, des ordinateurs de la taille d’un réfrigérateur de dortoir qui sont spécialement conçus pour les programmes de type IA. Cette grappe, dont l’existence a déjà été révélée par l’entreprise, est connue sous le nom de supercalculateur Andromeda, qui peut réduire considérablement le travail de formation des LLM sur des milliers de puces GPU de Nvidia.

    Dans le cadre de la publication de mardi, Cerebras a offert ce qu’elle a déclaré être la première loi d’échelle open source, une règle de référence pour la façon dont la précision de tels programmes augmente avec la taille des programmes basés sur des données open source. L’ensemble de données utilisé est la source ouverte The Pile, une collection de 825 gigaoctets de textes, principalement professionnels et académiques, introduite en 2020 par le laboratoire à but non lucratif Eleuther.

    Source et plus: https://www.zdnet.fr/actualites/culture-du-secret-quand-un-pionnier-de-l-ia-prend-openai-a-revers-39956276.htm

    Encore quelques mois et tous les articles sur ce sujet seront déjà obsolètes à peine pondus et pas encore lu :lol:

  • 0 Votes
    6 Messages
    148 Vues

    Il reste les serveurs DNS racines. C’est plutôt ceux là qu’il faudrait pas faire tomber.
    Mais ça mettrait quand même le dawa 😉

  • 0 Votes
    3 Messages
    93 Vues

    Oui en effet très vicieux @Ashura

    @Violence a dit dans Dark Power : un nouvel acteur de la menace (ransomware) :

    Il utilise un ransomware qui a pour originalité qu’il génère une clé de décryptage unique à chaque attaque, ce qui rend particulièrement difficile la création d’une règle de détection générique.

    ça aussi c’est assez vicieux 😉

  • 0 Votes
    2 Messages
    82 Vues

    trop compliqué pour un hébergeur, je reste sur un bon vieux cloud a l’ancienne

  • 0 Votes
    2 Messages
    54 Vues

    il était temps, a quand l’interdiction totale de cette appli a chute de qi

  • 0 Votes
    4 Messages
    102 Vues

    @Violence je la trouve plus, je sais plus u je l’ai vu

  • Une page de l'informatique se tourne...

    2
    1 Votes
    2 Messages
    67 Vues

    ah ben là oui, c’est du lourd ce Monsieur !!!

    RIP

  • 1 Votes
    4 Messages
    111 Vues

    c’est le début de la fin

  • 0 Votes
    3 Messages
    106 Vues

    C’est du vent. Ca ne sert à rien. Ça n’a aucun effet sur nos émissions de CO2 dans l’atmosphère.

  • 1 Votes
    4 Messages
    91 Vues

    D’un autre côté, on échange un poison contre un autre…

    Les personnes cultivées à l’esprit critique et non prédatrices, il n’y en a déjà pas beaucoup, alors submergées par des décérébrés, ce n’est pas un avenir qui chante.

    Remplacez les zombies d’un film d’horreur par la “masse” et vous aurez votre vision de l’avenir.