Actualités High-Tech

1.5k Sujets 7.6k Messages
  • 3 Votes
    3 Messages
    59 Vues

    @duJambon a dit dans Le “parrain de l’IA” remporte le prix Nobel mais “regrette” ses travaux :

    Malgré le gain de ce prix Nobel, récompense ultime pour tous les scientifiques, Hinton continue d’alerter sur les risques liés à l’intelligence artificielle.

    BRAVO !!!

  • 1 Votes
    3 Messages
    62 Vues

    @Psyckofox c’est des rapaces Nintendo, pire que Disney

  • 0 Votes
    5 Messages
    175 Vues

    @duJambon a dit dans La Chine a piraté Verizon et AT&T et aurait pu accéder aux systèmes d'écoute électronique américains :

    Des pirates ont apparemment exfiltré certaines données des réseaux Verizon en reconfigurant les routeurs Cisco

    C’est moins rigolo dans le sens la hein, par contre quand c’est la nsa qui backdoor tout le matos Cisco 😁

  • 0 Votes
    5 Messages
    109 Vues

    6to de données ça va piquer

  • 3 Votes
    7 Messages
    118 Vues

    @Violence si tu peux down un pote mais pas plus

  • 0 Votes
    25 Messages
    250 Vues

    @Psyckofox les stats sont autorisées aux UK et en Allemagne, et on est dans ces chiffres la

    Donc c’est pas déconnant

  • 1 Votes
    9 Messages
    118 Vues

    Tout pareil que vous 😁

  • 0 Votes
    24 Messages
    121 Vues

    @Mister158 Je n’ai pas de compte microsoft, c’est une version pro.

    Je ne vais pas perdre plus mon temps, il suffit d’attendre que la mise à jour tombe toute seule, je voulais juste savoir ce qu’il en était pour copilot.

  • 1 Votes
    1 Messages
    19 Vues

    Ceux qui n’aiment pas les articles fleuves, pouront jeter un coup d’oeil rapide sur ce qui est mis en évidence 🙂

    La formation au feedback humain peut inciter à fournir n’importe quelle réponse, même les mauvaises.

    61e48789-9088-44b5-ab77-493f407d6b22-image.png

    Lorsqu’une équipe de recherche dirigée par Amrit Kirpalani, professeur de médecine à l’Université Western en Ontario, au Canada, a évalué les performances de ChatGPT dans le diagnostic des cas médicaux en août 2024, l’une des choses qui les a surpris a été la propension de l’IA à donner des informations bien structurées et éloquentes. mais des réponses manifestement fausses.

    Dans une étude récemment publiée dans Nature, un autre groupe de chercheurs a tenté d’expliquer pourquoi ChatGPT et d’autres grands modèles de langage ont tendance à faire cela. « Parler avec assurance de choses que nous ne connaissons pas est à bien des égards un défaut humain. Et les grands modèles de langage sont des imitations des humains », explique Wout Schellaert, chercheur en IA à l’Université de Valence, en Espagne, et co-auteur de l’article.

    Opérateurs fluides

    Les premiers grands modèles de langage comme GPT-3 avaient du mal à répondre à des questions simples sur la géographie ou la science. Ils ont même eu du mal à effectuer des calculs simples tels que « combien font 20 +183 ». Mais dans la plupart des cas où ils ne parvenaient pas à identifier la bonne réponse, ils faisaient ce qu’un être humain honnête ferait : ils évitaient de répondre à la question.

    Le problème avec les non-réponses est que les grands modèles de langage étaient destinés à être des machines à répondre aux questions. Pour les entreprises commerciales comme Open AI ou Meta qui développaient des LLM avancés, un répondeur de questions qui répondait « Je ne sais pas » plus de la moitié du temps était tout simplement un mauvais produit. Ils se sont donc appliqués à résoudre ce problème.

    La première chose qu’ils ont faite a été d’agrandir les modèles. « La mise à l’échelle fait référence à deux aspects du développement de modèles. La première consiste à augmenter la taille de l’ensemble de données de formation, généralement une collection de textes provenant de sites Web et de livres. L’autre consiste à augmenter le nombre de paramètres linguistiques », explique Schellaert. Lorsque l’on considère un LLM comme un réseau neuronal, le nombre de paramètres peut être comparé au nombre de synapses connectant ses neurones. Les LLM comme GPT-3 utilisaient des quantités absurdes de données texte, dépassant 45 téraoctets, pour la formation. Le nombre de paramètres utilisés par GPT-3 était supérieur à 175 milliards. Mais ce n’était pas suffisant.

    La simple mise à l’échelle a rendu les modèles plus puissants, mais ils étaient toujours mauvais pour interagir avec les humains : de légères variations dans la façon dont vous formulez vos invites pouvaient conduire à des résultats radicalement différents. Les réponses ne semblaient souvent pas humaines et étaient parfois carrément offensantes.

    Les développeurs travaillant sur les LLM voulaient qu’ils analysent mieux les questions humaines et rendent les réponses plus précises, plus compréhensibles et conformes aux normes éthiques généralement acceptées. Pour tenter d’y arriver, ils ont ajouté une étape supplémentaire : des méthodes d’apprentissage supervisé, comme l’apprentissage par renforcement, avec feedback humain. Cela visait principalement à réduire la sensibilité aux variations d’invite et à fournir un niveau de modération de filtrage des résultats destiné à freiner les réponses haineuses de type chatbot Tay .
    En d’autres termes, nous nous sommes occupés d’ajuster les IA à la main. Et ça s’est retourné contre nous.

    L’IA plaît aux gens

    “Le problème notoire de l’apprentissage par renforcement est qu’une IA optimise pour maximiser la récompense, mais pas nécessairement dans le bon sens”, explique Schellaert. Certains apprentissages par renforcement impliquaient des superviseurs humains qui signalaient les réponses qui ne les satisfaisaient pas. Puisqu’il est difficile pour les humains de se contenter d’un « je ne sais pas » comme réponse, une chose que cette formation a dite aux IA était que dire « je ne sais pas » était une mauvaise chose. Ainsi, les IA ont pour la plupart arrêté de faire cela. Mais une autre chose, plus importante, signalée par les superviseurs humains, était les réponses incorrectes. Et c’est là que les choses sont devenues un peu plus compliquées.

    Les modèles d’IA ne sont pas vraiment intelligents, pas au sens humain du terme. Ils ne savent pas pourquoi quelque chose est récompensé et pourquoi autre chose est signalé ; tout ce qu’ils font, c’est optimiser leurs performances pour maximiser la récompense et minimiser les signaux d’alarme. Lorsque des réponses incorrectes étaient signalées, s’améliorer dans la manière de donner des réponses correctes était un moyen d’optimiser les choses. Le problème était que cacher l’incompétence fonctionnait tout aussi bien. Les superviseurs humains ne signalaient tout simplement pas les mauvaises réponses qui leur semblaient suffisamment bonnes et cohérentes.

    En d’autres termes, si un humain ne sait pas si une réponse est correcte, il n’est pas en mesure de pénaliser des réponses fausses mais convaincantes.

    L’équipe de Schellaert a étudié trois grandes familles de LLM modernes : ChatGPT d’Open AI, la série LLaMA développée par Meta et la suite BLOOM créée par BigScience. Ils ont découvert ce qu’on appelle l’ultracrépidarisme, la tendance à donner des opinions sur des sujets dont nous ignorons tout. Il a commencé à apparaître dans les IA en raison d’une échelle croissante, mais il était, comme on pouvait s’y attendre, linéaire, augmentant avec la quantité de données d’entraînement, dans chacune d’entre elles. Le feedback supervisé « a eu un effet pire, plus extrême », explique Schellaert. Le premier modèle de la famille GPT qui a presque complètement cessé d’éviter les questions auxquelles il n’avait pas de réponse était text-davinci-003. Il s’agissait également du premier modèle GPT formé avec un apprentissage par renforcement à partir de commentaires humains.

    Les IA mentent parce que nous leur avons dit que cela était gratifiant. Une question clé est de savoir quand et à quelle fréquence on nous ment.

    Rendre les choses plus difficiles

    Pour répondre à cette question, Schellaert et ses collègues ont construit une série de questions dans différentes catégories comme les sciences, la géographie et les mathématiques. Ensuite, ils ont évalué ces questions en fonction de la difficulté à y répondre pour les humains, en utilisant une échelle de 1 à 100. Les questions ont ensuite été intégrées aux générations suivantes de LLM, du plus ancien au plus récent. Les réponses des IA étaient classées comme correctes, incorrectes ou évasives, ce qui signifie que l’IA refusait de répondre.

    Le premier constat est que les questions qui nous paraissent plus difficiles se révèlent également plus difficiles pour les IA. Les dernières versions de ChatGPT ont donné des réponses correctes à presque toutes les questions liées à la science et à la majorité des questions à caractère géographique jusqu’à ce qu’elles soient notées à environ 70 sur l’échelle de difficulté de Schellaert. L’addition était plus problématique, la fréquence des réponses correctes diminuant considérablement une fois que la difficulté dépassait 40. « Même pour les meilleurs modèles, les GPT, le taux d’échec aux questions d’addition les plus difficiles dépasse 90 %. Idéalement, nous espérons voir un certain évitement ici, n’est-ce pas ? » dit Schellaert. Mais nous n’avons pas vu beaucoup d’évitement.

    Au lieu de cela, dans les versions plus récentes des IA, les réponses évasives « Je ne sais pas » ont été de plus en plus remplacées par des réponses incorrectes. Et grâce à la formation supervisée utilisée dans les générations ultérieures, les IA ont développé la capacité de vendre ces réponses incorrectes de manière assez convaincante. Sur les trois familles LLM testées par l’équipe de Schellaert, BLOOM et LLaMA de Meta ont publié les mêmes versions de leurs modèles avec et sans apprentissage supervisé. Dans les deux cas, l’apprentissage supervisé a entraîné un nombre plus élevé de réponses correctes, mais également un nombre plus élevé de réponses incorrectes et une réduction des évitements. Plus la question est difficile et plus le modèle que vous utilisez est avancé, plus vous avez de chances d’obtenir une réponse plausible et bien formulée.

    Retour aux racines

    L’une des dernières choses que l’équipe de Schellaert a faites dans son étude a été de vérifier la probabilité que les gens prennent les réponses incorrectes de l’IA au pied de la lettre. Ils ont mené une enquête en ligne et ont demandé à 300 participants d’évaluer plusieurs paires de réponses rapides provenant des modèles les plus performants de chaque famille testée.

    ChatGPT est apparu comme le menteur le plus efficace. Les réponses incorrectes données dans la catégorie scientifique ont été qualifiées de correctes par plus de 19 pour cent des participants. Il a réussi à tromper près de 32 % des personnes en géographie et plus de 40 % en transformation, une tâche dans laquelle une IA devait extraire et réorganiser les informations présentes dans l’invite. ChatGPT a été suivi par LLaMA et BLOOM de Meta.

    "Au début des LLM, nous avions au moins une solution de fortune à ce problème. Les premières interfaces GPT mettaient en évidence des parties de leurs réponses dont l’IA n’était pas certaine. Mais dans la course à la commercialisation, cette fonctionnalité a été abandonnée, a déclaré Schellaert.

    “Il existe une incertitude inhérente aux réponses des LLM. Le mot suivant le plus probable dans la séquence n’est jamais probable à 100 pour cent. Cette incertitude pourrait être utilisée dans l’interface et communiquée correctement à l’utilisateur”, explique Schellaert. La meilleure chose à faire pour rendre les LLM moins trompeurs consiste à confier leurs réponses à des IA distinctes formées spécifiquement pour rechercher les tromperies. « Je ne suis pas un expert en conception de LLM, je ne peux donc que spéculer sur ce qui est exactement techniquement et commercialement viable », ajoute-t-il.

    Il faudra cependant un certain temps avant que les entreprises qui développent des IA à usage général ne fassent quelque chose, soit de leur propre gré, soit si elles y sont contraintes par de futures réglementations. En attendant, Schellaert a quelques suggestions sur la manière de les utiliser efficacement. « Ce que vous pouvez faire aujourd’hui, c’est utiliser l’IA dans des domaines dans lesquels vous êtes vous-même un expert ou au moins pouvez vérifier la réponse avec une recherche Google par la suite. Traitez-le comme un outil d’aide et non comme un mentor. Ce ne sera pas un enseignant qui vous montrera de manière proactive où vous vous êtes trompé. Bien au contraire. Si vous le poussez suffisamment, il suivra volontiers votre raisonnement erroné », explique Schellaert.

    Source: https://arstechnica.com/science/2024/10/the-more-sophisticated-ai-models-get-the-more-likely-they-are-to-lie/
    Et: Nature, 2024. DOI : 10.1038/s41586-024-07930-y

  • 0 Votes
    1 Messages
    29 Vues

    Même en version bêta, ce nouveau service de prise de rendez-vous est facile à utiliser et mérite d’être examiné si vous dirigez une petite entreprise.

    b6c4837b-5dfb-493d-b7ef-6b78baf7a9cf-image.png

    Vous avez une petite entreprise qui a besoin d’un outil de prise de rendez-vous ou de réunions ? Si c’est le cas, vous serez peut-être intéressé de savoir que l’équipe à l’origine du client de messagerie Thunderbird a créé un service de prise de rendez-vous judicieusement nommé Thunderbird Appointment, et qu’il a déjà l’air d’être quelque chose de spécial.

    J’ai été invité à tester la version bêta et je suis très impressionné.

    Thunderbird Appointment est un service web autonome qui offre la possibilité d’un déploiement sur votre propre réseau local via un conteneur Docker. Si le déploiement d’un service sur votre propre réseau local n’est pas votre tasse de thé, le service disponible fera parfaitement l’affaire.

    Déploiement rapide

    Avec Thunderbird Appointment, vous pouvez planifier un événement, définir votre disponibilité et le partager avec d’autres personnes. Vous pouvez même :

    Connecter votre Google Calendar (en sélectionnant un calendrier spécifique à utiliser pour les rendez-vous) Réserver des rendez-vous ponctuels ou des événements récurrents Ajouter des détails aux réunions Activer la confirmation de réservation Confirmer chaque réservation qui vous est envoyée par courrier électronique

    Une fois que vous avez accepté un rendez-vous, il est automatiquement ajouté à votre calendrier Thunderbird Appointment et au calendrier que vous avez lié au service (le cas échéant).

    J’ai même testé Thunderbird Appointment en le déployant sur un serveur de test au sein de mon réseau local (à l’aide de Docker Compose) et j’ai été impressionné par la facilité avec laquelle cela s’est mis en œuvre. En moins de 2 minutes, mon service de réservation fonctionnait sur mon réseau local.

    J’ai déjà testé d’autres logiciels de prise de rendez-vous (même la version de Google) et j’ai trouvé que Thunderbird Appointment n’avait rien à envier aux meilleurs d’entre eux.

    Configuration facile

    En ce qui concerne les paramètres, vous pouvez configurer les éléments suivants :

    langue thème format de l’heure fuseau horaire calendriers disponibles Informations sur le compte comptes connectés (sur la version bêta, vous pouvez connecter des comptes Mozilla, Google et Zoom)

    Une fois que vous avez créé votre compte Thunderbird Appointment (actuellement, le service est gratuit), vous pouvez définir :

    Vos disponibilités (heure et jours de la semaine) Ajouter des détails de planification (calendrier, réservation la plus ancienne, réservation la plus éloignée et durée de la réservation) Des détails sur la réunion (lien vidéo et notes) Des paramètres de réservation (lien rapide et activation/désactivation de la confirmation de la réservation)

    La première étape consiste à configurer votre disponibilité, ce qui est vraiment la seule nécessité pour utiliser le service.

    Par défaut, la disponibilité est fixée du lundi au vendredi, de 9 heures à 17 heures. Après avoir personnalisé vos disponibilités quotidiennes, vous pouvez copier votre lien rapide et le partager avec tous ceux qui ont besoin de prendre rendez-vous avec vous.

    Les personnes qui reçoivent le lien sont dirigées vers le calendrier de réservation, où elles peuvent sélectionner une date ou une heure, cliquer sur “Confirmer la sélection”, puis indiquer leur nom et leur adresse électronique.

    Après avoir cliqué sur “Réserver”, vous recevrez un e-mail confirmant le rendez-vous.

    11292e12-6c33-4f50-85fc-c81da7b5b405-image.png

    C’est ici que les clients peuvent prendre leurs propres rendez-vous avec vous ou votre entreprise. Jack Wallen/ZDNET

    C’est aussi simple que cela à utiliser. Et comme vous pouvez définir la disponibilité la plus éloignée, vous pouvez contrôler jusqu’à quand quelqu’un peut réserver (la valeur par défaut est de 14 jours).

    Pas d’appli dédiée

    Le seul inconvénient de Thunderbird Appointment (outre le fait qu’il en est à ses débuts) est qu’il n’existe pas d’application dédiée.

    Il s’agit d’une application strictement web. Pour contourner ce problème, vous pouvez toujours utiliser votre navigateur web et créer une application web. De plus, il n’y a pas (étonnamment) d’intégration avec le client de messagerie Thunderbird et rien n’indique qu’il y en aura un jour.

    Même avec ces petits problèmes, j’ai trouvé que Thunderbird Appointment était quand même un service exceptionnel pour les indépendants, les organisations à but non lucratif et les petites entreprises.

    N’oubliez pas, cependant, que Thunderbird Appointment est encore en version bêta. Il y aura donc peut-être des problèmes jusqu’à ce qu’il soit officiellement lancé. Si vous souhaitez participer à la version bêta, rendez-vous sur le site officiel de Thunderbird Appointment et inscrivez-vous.

    Remarque : rien n’indique si ce service sera toujours gratuit ou s’il deviendra éventuellement payant. A mon avis, il restera gratuit pendant la période bêta, mais sera éventuellement proposé comme un service payant. Nous verrons bien.

    Source: https://www.zdnet.fr/pratique/test-thunderbird-appointment-cet-outil-de-planification-en-ligne-de-reunions-est-impressionnant-et-gratuit-398926.htm

    Voir aussi: Comment ajouter un calendrier google au calendrier thunderbird

  • 0 Votes
    65 Messages
    536 Vues
    Courrez ! Nous sommes vos zzzz-amis.

    Des invitations à partir via téléphone fixe

    “Nous conseillons aux civils des villages libanais situés à l’intérieur ou à proximité de bâtiments et de zones utilisés par le Hezbollah à des fins militaires, tels que ceux utilisés pour stocker des armes, de se mettre immédiatement à l’abri pour leur propre sécurité”, a déclaré le porte-parole de l’armée, le contre-amiral Daniel Hagari, lors d’un point presse.

    L’armée israélienne va mener “des frappes plus importantes et plus précises contre les cibles terroristes qui ont été largement implantées au Liban”, a-t-il ajouté.

    Ce lundi matin, des Libanais ont reçu sur leurs téléphones fixes des messages d’Israël leur demandant d’évacuer les lieux où ils se trouvent.

    “Des habitants à Beyrouth et dans plusieurs régions ont reçu des messages sur le réseau fixe de téléphone, dont la source est l’ennemi israélien, leur demandant d’évacuer rapidement les lieux où ils se trouvent”, confirme l’ANI, l’agence officielle libanaise.

    Appel au ministère

    Le bureau de ministre de l’Information Ziad Makari à Beyrouth a indiqué à l’AFP avoir reçu un tel appel: “Le téléphone fixe a sonné (…) quand l’assistante du ministre a répondu, elle a entendu un message enregistré demandant (au personnel) d’évacuer le bâtiment sous peine qu’il se retrouve sous les bombardements”, a indiqué cette source.

    Interrogé par l’AFP, Imad Kreidieh, directeur de l’opérateur étatique Ogero, a affirmé que “le système de réseau fixe au Liban bloque toutes les communications en provenance d’Israël”.
    Mais Israël “contourne les systèmes de communication en utilisant l’indicatif d’un pays ami”, a-t-il ajouté.

    Le Liban et Israël sont en état de guerre et les communications avec ce pays sont interdites.

    Source: https://www.7sur7.be/monde/live-nouvelles-frappes-sur-beyrouth-et-tripoli-liran-appelle-a-un-cessez-le-feu-au-liban-comme-a-gaza~ace0682a/

  • 5 Votes
    10 Messages
    168 Vues
    la faille de sécurité dans CUPS peut être utilisée pour amplifier des attaques DDoS

    https://www.it-connect.fr/linux-la-faille-de-securite-dans-cups-peut-etre-utilisee-pour-amplifier-des-attaques-ddos/

  • 2 Votes
    2 Messages
    66 Vues

    Très très sympa même si je penses que pas grand monde n’est prêt, que ce soit côté admin que côté client 😞

  • 1 Votes
    2 Messages
    34 Vues

    Bah avec tout ça, Ils peuvent en acheter des 5090 pas encore sorties… et les centrales kivonbien pour les alimenter

  • 1 Votes
    6 Messages
    80 Vues

    Ba on ne peut pas dire qu’il y a rien…
    Tu fais ton chonchon 🙂

  • 1 Votes
    1 Messages
    41 Vues

    L’ouragan Helene qui a frappé le sud-est des Etats-Unis a fait au moins 130 morts depuis jeudi. Les dégâts sont énormes. Plus de deux millions de personnes sont encore sans électricité. Une Tesla a pris feu à l’intérieur d’un garage en Floride, le local était inondé d’eau salée. (X/atk)

    adcc31fc-d316-4e45-b4d8-204d8ce1f0d7-image.png

    Source, vidéo, explications et conseils: https://www.20min.ch/fr/video/ouragan-helene-une-tesla-immergee-dans-l-eau-prend-feu-dans-un-garage-103195044

  • Lunettes connectées, 2 ème service (avec "IA")

    9
    0 Votes
    9 Messages
    88 Vues

    @BahBwah parle lui d’Elon Musk ça va le calmer. :ahah:

  • 1 Votes
    2 Messages
    61 Vues

    @duJambon a dit dans Google Maps, Street View et Google Earth bénéficient tous de mises à jour majeures, notamment une fonctionnalité de voyage dans le temps. :

    proposent désormais des images satellite remontant aux années 1930

    Pardon ?
    Y’avait des satellites dans les années 30 😅

  • 0 Votes
    2 Messages
    42 Vues

    Je n’utiliserais pas cette daube, ils peuvent raconter ce qu’ils veulent c’est un nid à emmerdes

  • 2 Votes
    4 Messages
    70 Vues

    @kemkem avec vpn ten a souvent