Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Skyvern – Plus besoin de vous prendre la tête pour automatiser une tâche web (scraping, saisie de formulaire…etc)

Par : Korben
7 mai 2024 à 07:00

Qui n’a jamais rêvé d’automatiser n’importe quelle tâche web peu importe sa complexité, pour évidemment se la couler douce ?

C’est précisément ce que vous propose Skyvern, un outil qui allie intelligence artificielle et vision par ordinateur pour interagir avec les sites web comme vous le feriez vous-même.

Plus besoin de scripts qui pètent à tout bout de champs, de XPath qui changent tous les 4 matins et de parseurs de DOM capricieux puisque Skyvern est capable de comprendre visuellement ce qu’il y a sur une page web et ainsi générer un plan d’interaction en temps réel.

Cela signifie que Skyvern est capable d’agir sur des sites qu’il n’a jamais vus auparavant, le tout sans avoir besoin de code spécifique. Il analyse les éléments visuels de la page pour déterminer les actions nécessaires pour répondre à votre demande, ce qui en fait un outil immunisé contre les changements de design de sites, contrairement à votre bon vieux scrapper.

Grâce aux modèles de langage (LLM) qu’il embarque, il est capable de « raisonner » donc par exemple, de remplir un formulaire qui vous pose plein de questions, ou de comparer des produits.

Vous voulez voir Skyvern à l’œuvre ? Voici un petit aperçu en vidéo :

Sous le capot, Skyvern s’inspire des architectures d’agents autonomes comme BabyAGI et AutoGPT, avec une couche d’automatisation web en plus, basée sur des outils comme Playwright.

Et comme d’hab, vous pouvez installer la bête sur votre machine et commencer à automatiser tout votre boulot en quelques commandes.

Vous devrez donc avoir Python 3.11, puis installez poetry :

brew install poetry

Ensuite, clonez le dépôt git et aller dans le dossier :

git clone https://github.com/Skyvern-AI/skyvern.git

cd skyvern

Puis lancez le script d’install :

./setup.sh

Une fois que c’est fini, démarrez le serveur :

./run_skyvern.sh

Et voilà, vous pouvez maintenant envoyer des requêtes au serveur, mais ne vous inquiétez pas, y’a une interface graphique :). Pour la lancer :

./run_ui.sh

Ouvrez ensuite http://localhost:8501 dans votre navigateur pour y accéder. Vous verrez alors ce genre d’interface. A vous de remplir les champs qui vont bien pour créer votre première automatisation.

En commande cURL, ça ressemble à ça (pensez bien à mettre votre clé API locale dans la commande) :

curl -X POST -H 'Content-Type: application/json' -H 'x-api-key: {Votre clé API locale}' -d '{
    "url": "https://www.geico.com",
    "webhook_callback_url": "",
    "navigation_goal": "Naviguer sur le site Web jusqu\'à ce que vous obteniez un devis d\'assurance automobile. Ne pas générer de devis d\'assurance habitation. Si cette page contient un devis d\'assurance automobile, considérez l\'objectif atteint",
    "data_extraction_goal": "Extraire toutes les informations de devis au format JSON, y compris le montant de la prime et le délai du devis",
    "navigation_payload": "{Vos données ici}",
    "proxy_location": "NONE"
}' http://0.0.0.0:8000/api/v1/tasks

Vous voyez, on peut vraiment faire des trucs pointu. Et le petit plus, c’est qu’on peut voir toutes les interactions puisque Skyvern enregistre chaque action avec une capture d’écran correspondante pour vous permettre de débugger facilement vos workflows.

Bref, pour en savoir plus, c’est sur le Github. Et sur leur site officiel.

Ollama 0.133 – Enfin une gestion en parallèle des LLMs

Par : Korben
6 mai 2024 à 10:06

Vous avez vu la dernière version d’Ollama ? Cette version 0.133 a l’air plutôt pas mal. Bon, je sais, je sais, ça faisait un bail que je n’avais pas parlé des mises à jour de cet outil génial pour faire tourner des modèles d’IA en local, mais là, impossible de passer à côté !

Déjà, on a le droit à des fonctionnalités expérimentales de parallélisme (je sais pas si c’est comme ça qu’on dit en français…) qui vont vous permettre d’optimiser grave vos applis d’IA. Il y a donc 2 nouvelles variables d’environnement qui débarquent : OLLAMA_NUM_PARALLEL et OLLAMA_MAX_LOADED_MODELS. Avec ça, vous allez pouvoir gérer plusieurs modèles et requêtes en même temps, comme des pros ! 😎

Par exemple, si vous avez un modèle pour compléter votre code avec une IA de 6 milliards de paramètres comme Llama 3, et en même temps vous demandez à Phi 3 Mini et ses 3,8 milliards de paramètres comment architecturer votre projet et bien maintenant, c’est possible ! Comme ça, plus besoin d’attendre que l’un ait fini pour lancer l’autre puisque tout ça va se lancer en parallèle.

Alors bien sûr, c’est encore expérimental car il n’y a pas encore de priorité, et on est limité par la mémoire dispo sur notre machine. D’ailleurs, il vaut mieux avoir 16 Go de RAM et un CPU 4 cœurs pour que ça fonctionne correctement.

Il y a aussi plein de nouveaux modèles d’IA compatibles avec Ollama maintenant. Des gros calibres comme Llama 3, le meilleur modèle open-source à ce jour, mais aussi des plus légers et spécialisés comme Phi 3 Mini, Moondream pour la vision par ordinateur sur des appareils à la marge, ou encore Dolphin Llama 3 qui répond sans censure. Et le premier modèle Qwen (c’est chinois) de plus de 100 milliards de paramètres, Qwen 110B, est également de la partie. Ça en fait des compagnons pour nous assister dans nos projets !

Ensuite, imaginons que vous vouliez tester le parallélisme. Vous devez simplement lancer votre serveur Ollama avec les fameuses variables d’environnement.

Voici comment procéder :

Définir les variables sur Mac :

  • Utilisez launchctl pour définir chaque variable. Par exemple, pour permettre à Ollama de gérer trois requêtes simultanément, tapez dans le terminal :
    launchctl setenv OLLAMA_NUM_PARALLEL 3
  • Pour définir le nombre maximal de modèles chargés simultanément à deux, utilisez :
    launchctl setenv OLLAMA_MAX_LOADED_MODELS 2
  • Après avoir défini les variables, redémarrez l’application Ollama.

Configurer les variables sur Linux :

    • Éditez le service systemd d’Ollama avec systemctl edit ollama.service, ce qui ouvrira un éditeur de texte.
    • Ajoutez les lignes suivantes sous la section [Service] :
      [Service] Environment="OLLAMA_NUM_PARALLEL=3" Environment="OLLAMA_MAX_LOADED_MODELS=2"
    • Sauvegardez et quittez l’éditeur. Rechargez systemd et redémarrez Ollama avec :
      systemctl daemon-reload systemctl restart ollama

    Paramétrer les variables sur Windows :

      • Quittez l’application Ollama via la barre des tâches.
      • Accédez aux variables d’environnement système via le panneau de configuration et créez ou modifiez les variables pour votre compte utilisateur :
        • Pour OLLAMA_NUM_PARALLEL, ajoutez ou modifiez la variable à 3.
        • Pour OLLAMA_MAX_LOADED_MODELS, ajustez la variable à 2.
      • Appliquez les changements et redémarrez Ollama à partir d’une nouvelle fenêtre de terminal.

      Là, ça veut dire que vous pourrez envoyer 3 requêtes en parallèle sur le même modèle, et charger jusqu’à 2 modèles différents si votre RAM de 16 Go minimum le permet.

      Bon, et une fois que c’est lancé, vous pourrez envoyer des requêtes à tour de bras. Un coup à Llama 3 pour qu’il vous aide à générer un résumé de texte hyper optimisé, un autre à Phi 3 Mini pour résumer un article scientifique, tout ça pendant que Moondream analyse une image pour de la détection d’objets.

      Allez, je vous laisse tranquille, faut que j’aille optimiser mes scripts maintenant.

      Ollama 0.133 est dispo ici.

      Source

      Amazon casse le prix de la Xiaomi TV Box S (2e gen) pour les French Days, une excellente box TV sous Google TV pour pas cher

      Par : Axel Savoye
      6 mai 2024 à 08:00

      La Xiaomi TV Box S 2e Gen est un boîtier multimédia sous Google TV, proposant une expérience télévisuelle complète avec le support du HDR10+ et du Dolby Atmos entre autres et vendu à un excellent rapport qualité-prix. En ce moment, son tarif est encore plus intéressant, car il est possible de la retrouver à seulement 41 euros chez Amazon au lieu de son prix de départ de 69 euros.

       [Lire la suite]

      Envie de retrouver les meilleurs articles de Frandroid sur Google News ? Vous pouvez suivre Frandroid sur Google News en un clic.

      Bonne nouvelle, Kia va bientôt améliorer son EV6 électrique pour mieux rivaliser avec le Tesla Model Y

      3 mai 2024 à 15:45

      Après trois ans de commercialisation, Kia va bientôt mettre à jour son EV6. Cette voiture électrique, concurrente des Tesla Model Y et Renault Scénic E-Tech, annonce (entre autres) des mises à jour esthétiques pour relancer sa carrière. Voici les premiers détails.

       [Lire la suite]

      Téléchargez notre application Android et iOS ! Vous pourrez y lire nos articles, dossiers, et regarder nos dernières vidéos YouTube.

      Bercy part en chasse aux crypto-fraudeurs grâce à l’IA

      Par : Korben
      2 mai 2024 à 16:33

      Attention, arnaqueurs et fraudeurs de crypto en tout genre, Big Brother Bercy vous surveille ! Le ministère de l’Économie s’apprête à dégainer un nouveau texte de loi antifraude, avec un focus particulier sur ces fameux crypto-actifs qui font tant fantasmer.

      Le problème, c’est que visiblement, pas mal de petits malins se croient plus intelligents que l’administration fiscale. Sur les quelques 5 millions de Français qui joueraient avec des cryptos selon la BCE, seuls 150 000 auraient daigné le déclarer au fisc. Oups, il y a comme qui dirait un petit décalage… Selon Thomas Cazenave, ministre délégué chargé des Comptes publics, environ 400 millions d’euros de fraudes ont été constatées rien que pour le dispositif MaPrimeRénov, destiné à encourager la rénovation énergétique des logements.

      Du coup, Bercy sort l’artillerie lourde et compte bien aligner les contrôles sur les cryptos avec ce qui se fait déjà pour les comptes à l’étranger. Au programme : des délais de reprise rallongés, des contrôles renforcés et des sanctions qui vont faire mal au portefeuille. Fini de jouer au plus malin avec le fisc !

      Et pour traquer les tricheurs, Bercy mise sur un allié de choix : l’intelligence artificielle ! Comme l’explique cet article de Decrypt, des chercheurs ont prouvé qu’un modèle d’IA bien entraîné pouvait rapidement scanner l’immense blockchain Bitcoin et y détecter des schémas de blanchiment d’argent. Une aubaine pour les services fiscaux !

      Concrètement, l’IA va apprendre à reconnaître les transactions légitimes et louches, puis suivre les liens entre les portefeuilles suspects pour mettre à jour des réseaux de fraude. Une analyse de masse qui serait impossible humainement vu le volume de données de la blockchain.

      Évidemment, rien ne dit que Bercy utilisera exactement cette technique, mais une chose est sûre : les geeks de Bercy bossent dur pour ne rien laisser passer. Personnellement, j’espère juste que leur algo de traque aux cryptos frauduleuses sera un poil plus efficace que celui utilisé pour détecter les piscines non déclarées. Parce que pour le coup, c’était un beau ratage… Un nombre incalculable de fausses piscines détectées, des tonnes de réclamations, bref la lose.

      Mais bon, gardons espoir. Peut-être que Bercy va nous pondre un modèle d’IA révolutionnaire capable de déceler la moindre petite fraude crypto, tout en épargnant les honnêtes citoyens (J’ai des doutes). Qui sait, on aura peut-être même droit à un petit chatbot sympa façon ChatGPT qui nous guidera gentiment dans nos déclarations de cryptos. « Bonjour, je suis Bercy-GPT, votre assistant fiscal bienveillant. Déclarez-moi tous vos bitcoins, et promis, pas d’amende ! » Bon, j’avoue, j’ai aussi des doutes…

      En attendant, un conseil les amis : si vous avez des cryptos planqués sous le matelas numérique, c’est peut-être le moment de régulariser votre situation avant que Bercy-GPT ne vous tombe dessus. Sinon, gare aux nunchakus fiscaux de Bercy !

      Source

      GeForce Now : le service est enfin compatible avec le Steam Deck

      Par : Hugo Clery
      2 mai 2024 à 14:11

      Ce mois-ci, Nvidia ajoute pas moins de 22 nouveaux jeux à son service de cloud gaming GeForce Now et annonce par la même occasion une compatibilité améliorée avec le Steam Deck.

       [Lire la suite]

      Utilisez-vous Google News (Actualités en France) ? Vous pouvez suivre vos médias favoris. Suivez Frandroid sur Google News (et Numerama).

      FKA Twigs exhorte le Congrès américain à légiférer sur l’intelligence artificielle

      Par : Théo Lilin
      2 mai 2024 à 13:01

      Sous le dôme du Capitole, entre les murs du Congrès américain, c’est bien la vraie FKA Twigs qui a témoigné. Avec le soutien du label Atlantic Records et du patron de Warner Music, assis à ses côtés lors de l’audition, l’artiste a témoigné en préambule d’une sous-commission judiciaire organisée ce mardi sur le thème de la propriété intellectuelle.

      La chanteuse et compositrice britannique a profité de sa prise de parole pour annoncer qu’elle planche depuis un an sur la création de son propre deepfake.

      Twigs twin

      L’artiste envisage de déléguer ses “interactions en ligne” à AI Twigs pour se consacrer pleinement à sa musique et, surtout, prendre le contrôle de cette nouvelle technologie qui manque selon elle d’un cadre législatif. Selon la chanteuse, cette copie en version deepfake a été entraînée pour reproduire le même ton de sa voix, de façon à pouvoir parler plusieurs langues, et formée pour correspondre à sa personnalité.

      C’est au cours du processus de création de sa jumelle numérique que FKA Twigs a réalisé toute la puissance de l’intelligence artificielle. Et du besoin, en tant qu’artiste, de protéger son identité.

      De vraies lois contre les deepfakes

      Voilà plus d’un an que l’intelligence artificielle s’impose dans les débats autour de la propriété intellectuelle, notamment dans la musique. En 2023, la chanteuse et DJ Grimes confiait voir d’un bon œil cette déferlante de faux morceaux, utilisant le deepfake pour créer de toutes pièces des featurings improbables – The Weeknd et Drake, ou Kanye interprétant Careless Whisper. “Je pense que c’est cool d’être fusionné avec une machine et j’aime l’idée d’ouvrir toutes les sources d’art et de supprimer les droits d’auteur”, assurait-elle sur son compte X.

      Autant dire que son point de vue sur la question est très loin de faire l’unanimité. Récemment, pas moins de 200 artistes ont signé une lettre ouverte pointant du doigt les dérives de l’intelligence artificielle, susceptible de dévaloriser leur musique et faillir à leur juste rémunération. Un élan commun qui fait écho à la prise de parole de Tahliah Debrett Barnett, mardi 30 avril devant le Congrès.

      “Mon art est la toile sur laquelle je peins mon identité et le fondement de ma subsistance, a déclaré FKA Twigs. C’est l’essence même de mon être. Pourtant, il est menacé. L’IA ne peut pas reproduire la profondeur de mon parcours, mais ceux qui la contrôlent ont le pouvoir d’imiter la ressemblance de mon art, de le reproduire et de revendiquer faussement mon identité et ma propriété intellectuelle.”

      L’artiste conjure le gouvernement américain de mettre en place de vraies lois autour de la propriété intellectuelle des artistes et ainsi d’apporter “un contrôle législatif approprié”.

      Le ChatGPT de Nvidia qui tourne en local propose de plus en plus d’IA différentes

      Par : Hugo Bernard
      2 mai 2024 à 12:45

      ChatRTX, le chatbot expérimental de Nvidia qui fonctionne en local, se complète avec l'arrivée des modèles Gemma de Google, versions ouvertes de Gemini. De quoi avoir des alternatives respectueuses de la vie privée à ChatGPT, Copilot, Gemini et autres, le tout sur un PC Windows.

       [Lire la suite]

      Téléchargez notre application Android et iOS ! Vous pourrez y lire nos articles, dossiers, et regarder nos dernières vidéos YouTube.

      L’alternative de Nokia à la Xiaomi Mi Box S devient bien plus intéressante grâce aux French Days

      Par : Axel Savoye
      2 mai 2024 à 10:46

      La Nokia Streaming Box 8000 est la concurrente directe de la Xiaomi Mi Box S avec Android TV dans le ventre ainsi que la puissance nécessaire pour faire tourner des contenus en 4K avec le HDR10, et le tout avec un excellent rapport qualité-prix ! C'est d'autant plus vrai durant ces French Days puisque ce boîtier multimédia est disponible à seulement 49,90 euros chez Amazon au lieu de 99 euros à son lancement.

       [Lire la suite]

      Pour ne rater aucun bon plan, rejoignez notre nouveau channel WhatsApp Frandroid Bons Plans, garanti sans spam !

      Ce gadget à 200 dollars est juste un mini-smartphone Android d’entrée de gamme

      2 mai 2024 à 08:38

      Déjà accusé d'utiliser des scripts pour exécuter des tâches sur Internet, le rabbit r1 est de nouveau dans la tourmente après la découverte d'un journaliste d'Android Authority. Le « système d'exploitation » du r1 est une application Android préinstallée sur un terminal AOSP, la version open source du système de Google.

      Un mot de passe de 8 caractères est devenu trop faible à cause des avancées technologiques

      2 mai 2024 à 07:17

      La puissance de calculs des derniers processeurs et cartes graphiques vendues dans le commerce offre de nouvelles opportunités pour les cybercriminels. Les internautes doivent réfléchir à de nouveaux mots de passe face à la hausse de cette menace.

      Rabbit R1 – Le super gadget IA trop hype n’est en fait qu’une app Android

      Par : Korben
      30 avril 2024 à 23:31

      Rabbit R1, le joujou IA dont tout le monde parle depuis des mois, avait créé un sacré buzz à son annonce. On nous promettait une révolution, un assistant personnel intelligent toujours à portée de main pour répondre à nos questions, identifier des objets, jouer votre musique préférée ou commander un Uber. Bref, l’accessoire indispensable pour notre vie connectée qui remplacerait ce foutu smartphone.

      Sauf que… en fait non.

      Les premiers tests sont tombés et le verdict est sans appel, exactement comme je l’avais prédit sur Twitter y’a quelques semaines : le Rabbit R1 est un bide intersidéral. Sous ses airs de gadget futuriste, il s’agit en réalité d’un appareil fonctionnant sous une version modifiée d’Android, le tout dans une coque en plastique.

      Et ses fonctionnalités révolutionnaires ?

      Et bien c’est juste une application préinstallée…

      Je déconne pas. Toute la magie s’envole d’un coup. Fini le rêve du compagnon IA révolutionnaire, on se retrouve juste avec une merde de plus en plastique qui recycle des technologies existantes et bridées. Mais le pire, c’est que cette fameuse app Android, il est possible de l’installer sur un smartphone Android. C’est ce qu’on réussi à faire les journalistes d’Android Authority sur un bon gros Pixel 6a. Et ça fonctionne plutôt bien même si l’affichage est tout petit vu que c’est prévu pour l’écran rikiki du R1. Mais on peut discuter avec l’assistant, lui poser des questions et obtenir des réponses exactement comme si on avait un Rabbit R1 dans les mains !

      Alors bien sûr des trucs comme la prise de photos ou la reconnaissance d’images ne fonctionnent pas car il manque les autorisations système et l’intégration matérielle dont bénéficie l’app sur le vrai appareil mais y’a l’essentiel, à avoir l’IA conversationnelle !

      Cela veut dire que ce gadget vendu 200 balles n’était en fait qu’une surcouche logicielle, un simple lanceur Android customisé. Pas besoin d’appareil dédié, un APK aurait suffit… et vendre à ce prix un produit qui tient en grande partie sur une app, c’est quand même gonflé surtout que l’autonomie est ridicule et qu’il faut un forfait data en plus !

      La douille.

      Bref, si vous attendiez le Rabbit R1 comme le messie, contentez-vous d’installer l’app ChatGPT, vous aurez une expérience similaire pour 0€.

      Allez, bisous mes lapins de 3 semaines 🐰

      Concours NVIDIA Studio STARS 2 : montez le trailer le plus épique possible et tentez de gagner près de 6 000 € de cadeaux [Sponso]

      Par : humanoid xp
      30 avril 2024 à 16:00

      Cet article a été réalisé en collaboration avec NVIDIA

      Monteurs et créateurs de contenus, cette seconde édition nationale du concours NVIDIA Studio STARS vous est dédiée ! Réalisez le trailer le plus épique possible et tentez de gagner l’un des PC ou GPU les plus performants du moment. Près de 6 000 euros de cadeaux, dont des produits RTX STUDIO sont mis en jeu !

      Cet article a été réalisé en collaboration avec NVIDIA

      Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.

      En savoir plus

      GitHub Copilot Workspace – L’environnement de dev piloté par l’IA !

      Par : Korben
      30 avril 2024 à 11:48

      J’espère que vous êtes bien installés dans votre cockpit, parce que GitHub nous a reservé une sacrée surprise : Copilot Workspace, un environnement de développement nouvelle génération entièrement propulsé par l’IA.

      Vous connaissez sûrement déjà GitHub Copilot, ce fidèle acolyte qui nous assiste depuis l’année dernière en nous soufflant des suggestions de code directement dans votre IDE, et bien avec Copilot Workspace, GitHub veut carrément révolutionner la façon de concevoir des logiciels.

      L’idée est simple : vous exprimez ce que vous voulez faire en langage naturel, comme si vous discutiez avec votre pote développeur et Copilot Workspace vous aide à transformer votre concept en réalité, étape par étape.

      Par exemple, si vous avez une idée de fonctionnalité à ajouter à votre projet, vous ouvrez Copilot Workspace, vous saisissez une description de ce que vous voulez faire, et hop ! L’IA analyse votre requête, génère un plan d’action détaillé, et vous guide tout au long du processus de développement.

      Brainstorming, planification, implémentation, tests… Chaque phase est assistée par Copilot Workspace qui vous fera des suggestions, répondra à vos questions, et automatisera un maximum de tâches fastidieuses, le tout de manière transparente et collaborative.

      Le top du top, c’est que tout est « steerable » comme ils disent chez GitHub. Cela veut dire que vous gardez le contrôle à tout moment et chaque suggestion de l’IA peut être affinée, modifiée ou rejetée selon vos désirs. Bref, vous restez le pilote et Copilot n’est que votre copilote (et gardez votre culotte) !

      D’ailleurs, Copilot Workspace vous permet d’orienter le système via le langage naturel à 2 endroits : en modifiant la spécification (une description de la base de code actuelle et de l’état souhaité) et en modifiant le plan (une liste d’actions à entreprendre dans chaque fichier). Cela vous permet de guider le système vers la solution que vous souhaitez mettre en œuvre. Cette capacité de pilotage est essentielle, car elle permet aux développeurs de dépasser les limites de la taille des suggestions, en imitant la façon dont ils travaillent sur des problèmes réels. Cela se traduit par un code généré plus précis et plus facile à évaluer.

      Une fois votre code écrit, vous pouvez le valider et l’exécuter directement dans l’environnement, histoire de vérifier que tout roule comme sur des roulettes. Chaque Copilot Workspace permet une synchronisation en direct avec les Codespaces, ce qui vous permet d’ouvrir un terminal, d’installer des dépendances et d’exécuter votre code directement depuis l’espace de travail. Et si vous avez besoin d’outils plus avancés, hop, vous basculez dans un Codespace pour retrouver une expérience d’IDE complète dans le cloud, avec un serveur exécutant VS Code.

      Côté collaboration, vous pouvez partager un instantané de votre Workspace avec vos petits camarades en un clic, pour recueillir leur feedback ou les laisser expérimenter leurs propres idées. S’ils font partie de la preview technique, ils pourront même forker votre Workspace et itérer dessus. Par contre, si vous apportez des modifications à votre Workspace après l’avoir partagé, ces changements ne seront pas reflétés dans la version partagée. Il faudra alors partager un nouveau lien pour transmettre la dernière mouture.

      Et le plus chouette, c’est que Copilot Workspace est accessible de partout, même depuis votre smartphone. Comme ça, la prochaine fois que vous avez une illumination en faisant vos courses, vous pourrez directement la prototyper depuis le rayon fromages du supermarché !

      Avec cette annonce, GitHub affiche clairement son ambition : démocratiser le développement logiciel en le rendant plus intuitif, plus naturel, plus humain en somme. Leur vision à long terme c’est un monde où tout le monde peut coder aussi simplement qu’on fait du vélo et je dois dire que je suis plutôt emballé par cette perspective puisque je fonctionne déjà comme ça pour mes projets de dev grâce notamment à Cursor.

      Sous le capot, Copilot Workspace est propulsé par le modèle GPT-4 Turbo, que les équipes de GitHub ont jugé le plus performant pour cette tâche après avoir testé de nombreuses alternatives. D’ailleurs, c’est intéressant de comparer Copilot Workspace avec les autres fonctionnalités de la gamme Copilot.

      Là où Copilot vous aide à écrire du code en faisant des suggestions au fur et à mesure que vous tapez, et où Copilot Chat permet de discuter des changements potentiels, Copilot Workspace est un véritable environnement de développement orienté tâches, qui planifie et rédige des modifications coordonnées sur plusieurs fichiers. Chacun de ces outils a son utilité, et ils se complètent à merveille.

      GitHub a surtout compris l’importance d’impliquer les développeurs dans cette aventure. C’est pour ça qu’ils lancent Copilot Workspace en technical preview, histoire de recueillir un maximum de feedback et d’itérer en fonction. Si ça vous tente de jouer les beta-testeurs, c’est par ici pour vous inscrire !

      Source

      Ruviki – Quand le Kremlin réécrit Wikipedia à sa sauce

      Par : Korben
      30 avril 2024 à 10:03

      Vous pensiez que Wikipedia était un havre de savoir libre et ouvert à tous ?

      Détrompez-vous ! En Russie, le gouvernement vient de frapper un grand coup en clonant l’encyclopédie collaborative pour en faire une version légèrement différente, histoire de réécrire l’Histoire à sa sauce.

      Fini Wikipedia, place à Ruviki ! Enfin quand je dis Ruviki, c’est en fait une version modifiée de Wikipedia en russe (Wikipedia RU) mais sans les articles qui dérangent. Bref, appelez ça comme vous voulez, le principe reste le même : on prend l’encyclopédie, on vire tout ce qui nous plaît pas, et voilà, on a une Wikipedia sous stéroïdes made in Kremlin. Pratique.

      Concrètement, ce projet Ruviki a été initié par Vladimir Medeyko, président de Wikimedia.ru (la version russe de la Wikimedia Foundation). Les articles sur les « agents étrangers » (comprenez tous ceux qui osent émettre une opinion sur le gouvernement sans être sponsorisés par Poutine himself), les scandales impliquant des représentants du gouvernement ou encore les rapports sur la torture dans les prisons russes ont comme par magie disparu ! Pouf ! Envolés les « détails » qui fâchent.

      Mais le plus drôle dans l’histoire, c’est que même les articles sur des sujets à priori sans rapport y passent. Prenez par exemple l’article sur « 1984 » de George Orwell. Bizarrement, toute mention du « Ministère de la Vérité », l’institution chargée de la propagande et de la réécriture de l’Histoire dans le roman, s’est volatilisée de Ruviki. Étonnant, non ?

      Et ne croyez pas que seuls quelques articles sont concernés. D’après une analyse du chercheur Constantine Konovalov, ce sont plus de 200 000 caractères qui ont été modifiés ou supprimés dans les articles sur la liberté d’expression, 150 000 sur les droits humains, 96 000 sur les prisonniers politiques et 71 000 sur la censure. Ça en fait de la réécriture !

      Le plus ironique dans tout ça, c’est que les autorités russes présentent ce Ruviki comme une version « fiable » et « neutre » de Wikipedia. Ben voyons… C’est sûr que quand on vire tout ce qui nous arrange pas, ça devient vite plus « neutre ». Dans le genre révision historique de niveau olympique, on n’a pas fait mieux depuis l’invention du correcteur liquide.

      Et comme si ça suffisait pas, la véritable Wikipedia en russe est désormais bannie en Russie. Circulez, y a plus rien à voir ! Seule la version tronquée made in Kremlin est autorisée. C’est ballot, les Russes vont devoir se contenter d’une réalité quelque peu… alternative.

      Mais bon, après tout, c’est pas comme si la Russie était réputée pour sa transparence, sa liberté d’expression et son amour de la vérité vraie. Alors une encyclopédie sous contrôle étatique, c’est bien pratique pourj le gouvernement qui ne fera plus de nuits blanches en se demandant si un article compromettant va être publié.

      La prochaine fois que vous consulterez Wikipedia, ayez une petite pensée pour nos amis Russes qui, eux, devront se contenter de la version caviardée… (et c’est pas du Beluga)

      Source

      OpenAI est-il à l’origine de gpt2-chatbot, le futur modèle de ChatGPT ?

      30 avril 2024 à 10:00

      Apparu mystérieusement sur un site de comparaison des grands modèles de langage, le modèle gpt2-chatbot intrigue la communauté de l'intelligence artificielle (IA). Supposément capable de résoudre des problèmes inabordables pour GPT-4, il pourrait être un prototype d'un futur modèle OpenAI. Sam Altman, le patron de l'entreprise, ne cache pas son amusement.

      ❌
      ❌