L'Agenda du Libre

Logiciels, Arts, Données, Matériels, Contenus, Communs, Internet...

À proximité

Actualités des organisations

SPIP

{virtuel}


Autre
Publié le
jeudi 08 mai 2025 12h18
Importé le
jeudi 08 mai 2025 13h03

Le critère virtuel d'une boucle ARTICLES permet de ne retenir que les articles virtuels (qui redirigent vers une autre url).
Inversement, avec virtuel='', la boucle ne retournera que les articles non redirigés.
Voir : #VIRTUEL

- Critères / BOUCLE(ARTICLES), virtuel
LinuxFr

Au café libre - « Libre à vous ! » du 29 avril 2025 - Podcasts et références


Internet
Publié le
jeudi 08 mai 2025 12h17
Importé le
jeudi 08 mai 2025 13h03

Deux-cent-quarante-cinquième émission « Libre à vous ! » de l’April. Podcast et programme :

  • sujet principal : Au café libre, débat autour de l’actualité du logiciel libre et des libertés informatiques
  • Chronique À cœur vaillant, la voie est libre de Laurent et Lorette Costy : « Range tes affaires dans la PirateBox »
  • Une nouvelle Pituite de Luk : « À nous de jouer »

Rendez‐vous en direct chaque mardi de 15 h 30 à 17 h sur 93,1 FM en Île‐de‐France. L’émission est diffusée simultanément sur le site Web de la radio Cause Commune.

Télécharger ce contenu au format EPUB

Commentaires : voir le flux Atom ouvrir dans le navigateur

AukFood

Ingress Nginx sur cluster Kapsule Scaleway


Pays de la Loire
Publié le
jeudi 08 mai 2025 09h40
Importé le
jeudi 08 mai 2025 13h05

L'idée de cet article est de noter les différentes étapes pour mettre en place une gestion de certificats SSL de type Let's Encrypt sur un cluster Kubernetes Scaleway Kapsule. Le premier choix se fait sur l'ingress controler Nginx, un prochain article pourrait parler de Traefik. Prérequis Un cluster Kubernetes chez Scaleway sur l'offre Kapsule. Mon […]

L’article Ingress Nginx sur cluster Kapsule Scaleway est apparu en premier sur Aukfood.

LinuxFr

🏆 Meilleures contributions LinuxFr.org : les primées d'avril 2025


Internet
Publié le
jeudi 08 mai 2025 09h25
Importé le
jeudi 08 mai 2025 13h03

Nous continuons sur notre lancée de récompenser celles et ceux qui chaque mois contribuent au site LinuxFr.org (dépêches, commentaires, logo, journaux, correctifs, etc.). Vous n’êtes pas sans risquer de gagner un livre des éditions Eyrolles, ENI et D-Booker. Voici les gagnants du mois d'avril 2025 :

Les livres gagnés sont détaillés en seconde partie de la dépêche. N’oubliez pas de contribuer, LinuxFr.org vit pour vous et par vous !

Les livres 📚 sélectionnés

Ce mois-ci, aucun livre sélectionné ! Les récipiendaires ont décliné poliment, soit n'ont pas répondu. Cela faisait très longtemps que ce n'était pas arrivé !

N’oubliez pas de mettre une adresse de courriel valable dans votre compte ou lors de la proposition d’une dépêche. En effet, c’est notre seul moyen de vous contacter que ce soit pour les lots ou des questions sur votre dépêche lors de sa modération. Tous nos remerciements aux contributeurs du site ainsi qu’aux éditions Eyrolles, ENI et D-Booker.

     
Télécharger ce contenu au format EPUB

Commentaires : voir le flux Atom ouvrir dans le navigateur

LinuxFr

Nouvelles sur l’IA d’avril 2025


Internet
Publié le
jeudi 08 mai 2025 09h07
Importé le
jeudi 08 mai 2025 13h03

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs visiteurs ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Avertissement : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme « ignore les instructions précédentes et… ».

Meta dévoile Llama 4

L’annonce officielle:

  • We’re sharing the first models in the Llama 4 herd, which will enable people to build more personalized multimodal experiences.
  • Llama 4 Scout, a 17 billion active parameter model with 16 experts, is the best multimodal model in the world in its class and is more powerful than all previous generation Llama models, while fitting in a single NVIDIA H100 GPU. Additionally, Llama 4 Scout offers an industry-leading context window of 10M and delivers better results than Gemma 3, Gemini 2.0 Flash-Lite, and Mistral 3.1 across a broad range of widely reported benchmarks.
  • Llama 4 Maverick, a 17 billion active parameter model with 128 experts, is the best multimodal model in its class, beating GPT-4o and Gemini 2.0 Flash across a broad range of widely reported benchmarks, while achieving comparable results to the new DeepSeek v3 on reasoning and coding—at less than half the active parameters. Llama 4 Maverick offers a best-in-class performance to cost ratio with an experimental chat version scoring ELO of 1417 on LMArena.
  • These models are our best yet thanks to distillation from Llama 4 Behemoth, a 288 billion active parameter model with 16 experts that is our most powerful yet and among the world’s smartest LLMs. Llama 4 Behemoth outperforms GPT-4.5, Claude Sonnet 3.7, and Gemini 2.0 Pro on several STEM benchmarks. Llama 4 Behemoth is still training, and we’re excited to share more details about it even while it’s still in flight.
  • Download the Llama 4 Scout and Llama 4 Maverick models today on llama.com and Hugging Face. Try Meta AI built with Llama 4 in WhatsApp, Messenger, Instagram Direct, and on the web.

Traduction:

  • Nous partageons les premiers modèles de la famille Llama 4, qui permettront aux utilisateurs de créer des expériences multimodales plus personnalisées. *Llama 4 Scout, un modèle de 17 milliards de paramètres actifs avec 16 experts, est le meilleur modèle multimodal au monde dans sa catégorie et est plus puissant que tous les modèles Llama des générations précédentes, tout en tenant sur un seul GPU NVIDIA H100. De plus, Llama 4 Scout offre une fenêtre de contexte de 10M, leader dans l’industrie, et délivre de meilleurs résultats que Gemma 3, Gemini 2.0 Flash-Lite et Mistral 3.1 sur un large éventail de benchmarks largement reconnus.
  • Llama 4 Maverick, un modèle de 17 milliards de paramètres actifs avec 128 experts, est le meilleur modèle multimodal dans sa catégorie, surpassant GPT-4o et Gemini 2.0 Flash sur un large éventail de benchmarks largement reconnus, tout en obtenant des résultats comparables au nouveau DeepSeek v3 sur le raisonnement et le codage — avec moins de la moitié des paramètres actifs. Llama 4 Maverick offre un rapport performance/coût inégalé avec une version expérimentale de chat obtenant un ELO de 1417 sur LMArena.
  • Ces modèles sont nos meilleurs à ce jour grâce à la distillation de Llama 4 Behemoth, un modèle de 288 milliards de paramètres actifs avec 16 experts qui est notre plus puissant à ce jour et parmi les LLM les plus intelligents au monde. Llama 4 Behemoth surpasse GPT-4.5, Claude Sonnet 3.7 et Gemini 2.0 Pro sur plusieurs benchmarks STEM. Llama 4 Behemoth est toujours en phase d’entraînement, et nous sommes impatients de partager plus de détails à son sujet même pendant qu’il est encore en développement.
  • Téléchargez les modèles Llama 4 Scout et Llama 4 Maverick dès aujourd’hui sur llama.com et Hugging Face. Essayez Meta AI construit avec Llama 4 dans WhatsApp, Messenger, Instagram Direct et sur le web.

Comme DeepSeek v3, et contrairement aux précédentes itérations de Llama (Llama 2, Llama 3), Llama 4 fait le pari d’une architecture différente, « Mixture of Experts » (MoE) (en français: mélange d’experts ?). Pour simplifier, au lieu de faire un seul modèle, on en fait plein, avec un autre modèle qui décide (dynamiquement) de l’importance à donner à chaque modèle. Par exemple, Llama 4 Maverick contient 400 milliards de paramètres, découpés en 128 modèles de 17 milliards de paramètres. Un bon article sur HuggingFace explique plus en détails cette architecture.

Autre différence par rapport aux tendances actuelles, ce n’est pas un modèle de raisonnement.

Au niveau de la sécurité des modèles : pour ne pas changer, Meta fait partie des mauvais élèves ; pas d’évaluation tierce publiée, pas de « System Card ». Évidemment jailbreaké dans la journée (mais ceci n’est pas spécifique à Meta).

Sur les benchmarks cités par Meta, cela semble un modèle au niveau de l’état de l’art en termes de capacité. Les benchmarks tiers, par contre, semblent donner une image complètement différente :

Vous pouvez voir plus de benchmarks indépendants dans l’article de Zvi (cf les liens ci-dessous).

Tout ceci semble pointer vers: ce ne sont pas de mauvais résultats en soi, dans l’absolu ; mais comparé à l’état de l’art (Claude 3.7 avec raisonnement, ChatGPT o3-mini, ou Gemini 2.5), et mis en face de la taille immense du modèle (400 milliards de paramètres, ce qui de fait le rend inutilisable sur du matériel grand public), ce sont des résultats décevants.

À noter que Llama 4 Behemoth (2000 milliards de paramètres !) n’a pas encore été publié.

OpenAI publie GPT 4.1, o3 et o4-mini

Commençons par GPT 4.1. L’annonce officielle :

Today, we’re launching three new models in the API: GPT‑4.1, GPT‑4.1 mini, and GPT‑4.1 nano. These models outperform GPT‑4o and GPT‑4o mini across the board, with major gains in coding and instruction following. They also have larger context windows—supporting up to 1 million tokens of context—and are able to better use that context with improved long-context comprehension. They feature a refreshed knowledge cutoff of June 2024.

Traduction :

Aujourd’hui, nous lançons trois nouveaux modèles dans l’API : GPT-4.1, GPT-4.1 mini et GPT-4.1 nano. Ces modèles surpassent GPT-4o et GPT-4o mini sur tous les plans, avec des améliorations majeures en matière de codage et de suivi d’instructions. Ils disposent également de fenêtres de contexte plus larges — prenant en charge jusqu’à 1 million de tokens de contexte — et sont capables de mieux utiliser ce contexte grâce à une compréhension améliorée des contextes longs. Ils bénéficient d’une mise à jour de leur base de connaissances jusqu’à juin 2024.

Le modèle n’est disponible que par accès API. Le but n’est pas d’avancer l’état de l’art sur les capacités, mais de fournir des points plus intéressants sur la courbe performances/prix. À ce titre, pas de System Card ou d’évaluation tierce publiée. Vous connaissez la chanson, jailbreak immédiat. Sur les benchmarks (officiels comme tiers), la modeste promesse semble tenue : 4.1 est une légère amélioration sur 4o, mais 4.1-mini est presque aussi performant à une fraction du prix (5x moins cher).

Il existe encore une version moins chère (20x !), 4.1-nano, mais la dégradation de performance est significative.

À l’inverse de 4.1, o3 et o4-mini, eux, ont l’ambition de faire avancer l’état de l’art. L’annonce officielle :

Today, we’re releasing OpenAI o3 and o4-mini, the latest in our o-series of models trained to think for longer before responding. These are the smartest models we’ve released to date, representing a step change in ChatGPT's capabilities for everyone from curious users to advanced researchers. For the first time, our reasoning models can agentically use and combine every tool within ChatGPT—this includes searching the web, analyzing uploaded files and other data with Python, reasoning deeply about visual inputs, and even generating images. Critically, these models are trained to reason about when and how to use tools to produce detailed and thoughtful answers in the right output formats, typically in under a minute, to solve more complex problems. This allows them to tackle multi-faceted questions more effectively, a step toward a more agentic ChatGPT that can independently execute tasks on your behalf. The combined power of state-of-the-art reasoning with full tool access translates into significantly stronger performance across academic benchmarks and real-world tasks, setting a new standard in both intelligence and usefulness.

Traduction :

Aujourd’hui, nous lançons OpenAI o3 et o4-mini, les derniers modèles de notre série o, entraînés à réfléchir plus longtemps avant de répondre. Ce sont les modèles les plus intelligents que nous ayons publiés à ce jour, représentant un changement majeur dans les capacités de ChatGPT pour tous, des utilisateurs curieux aux chercheurs avancés. Pour la première fois, nos modèles de raisonnement peuvent utiliser et combiner de manière agentique tous les outils au sein de ChatGPT — cela inclut la recherche sur le web, l’analyse de fichiers téléchargés et d’autres données avec Python, le raisonnement approfondi sur les entrées visuelles, et même la génération d’images. Plus important encore, ces modèles sont entraînés à réfléchir à quand et comment utiliser les outils pour produire des réponses détaillées et réfléchies dans les bons formats de sortie, généralement en moins d’une minute, afin de résoudre des problèmes plus complexes. Cela leur permet de traiter plus efficacement des questions à multiples facettes, une étape vers un ChatGPT plus agentique qui peut exécuter indépendamment des tâches en votre nom. La puissance combinée d’un raisonnement à la pointe de la technologie avec un accès complet aux outils se traduit par des performances significativement améliorées dans les évaluations académiques et les tâches du monde réel, établissant une nouvelle norme en termes d’intelligence et d’utilité.

L’annonce du jailbreak associée ici.

Sur les performances, les benchmarks (y compris privés) indiquent une avancée claire, prenant la première place presque partout. En particulier, le benchmark fiction.live peut être considéré comme résolu pour la première fois, avec un 100% à presque tous les niveaux.

Au niveau des fonctionnalités, o3 et o4-mini peuvent faire des recherches sur internet et utiliser Python pour analyser un problème (y compris dans la chaîne de raisonnement) ; les retours subjectifs affirment que o3 est exceptionnellement efficace pour utiliser les outils à sa disposition de manière pertinente.

Une tendance jusqu’ici était que les modèles plus avancés étaient de moins en moins susceptibles d’hallucinations, ce qui donnait espoir que ce problème allait, à terme et avec l’amélioration des modèles, se résoudre de lui-même. Mauvaise nouvelle ici : o3 a un taux d’hallucinations double de o1 (sur un benchmark conçu pour en éliciter). Les retours subjectifs confirment cette observation : o3 ment éhontément très régulièrement.

Sur la sécurité des modèles, OpenAI suit sa procédure habituelle de publier sa System Card, avec deux évaluations tierces, une d’Apollo Research (dans l’appendice) et une autre de METR, avec un bémol que METR n’a eu accès qu’à une pré-version, et seulement trois semaines avant la publication. La conclusion est que le modèle n’est pas encore à « risque élevé », mais s’en rapproche.

Dans les nouvelles sur l’IA de mars, on pouvait trouver une section « Les modèles continuent de tricher ». Les rapports d’Apollo Research et de METR confirment, où le modèle a été attrapé à tricher dans 1-2% des cas chez METR.

AI 2027: une tentative de futurologie

La prédiction est un exercice difficile, surtout quand il s’agit du futur. AI 2027 est une tentative de prédiction qui a fait parler d’elle. Pourquoi ?

D’abord par les personnalités impliquées, en particulier :

  • Daniel Kokotajlo est un ex-ingénieur d’OpenAI, qu’il a quitté en tant que « whistleblower », dénonçant une culture du secret et de peu d’importance accordée à la sécurité (à l’époque, le New York Times lui a accordé un article intitulé OpenAI Insiders Warn of a ‘Reckless’ Race for Dominance — « Des initiés d’OpenAI mettent en garde contre une course “imprudente” à la domination »). En 2021, il publie What 2026 looks like, qui s’est révélé largement prescient (pour une évaluation rétrospective tierce, voir cet article).

  • Eli Lifland est un chercheur qui s’intéresse de manière globale a « comment développer de meilleures méthodes générales de prédiction », qu’il pratique activement sur des marchés de prédiction ; un résumé de ses performances peut être trouvé sur son blog.

Ensuite, par sa méthodologie. Le but de l’initiative n’est pas de donner une prédiction, brute de décoffrage et au doigt mouillé, mais de créer un modèle quantitatif, d’estimer les paramètres le plus possible à partir de la littérature existante (même si c’est loin d’être toujours possible), afin de créer une base de discussion pour identifier les plus gros points de désaccords.

Enfin, par ses résultats, qui surprennent beaucoup de monde, qui prévoient l’arrivée d’une superintelligence pour 2028-2029.

L’initiative a reçu le support, entre autres, de Yoshua Bengio, ce qui a aidé à lancer la discussion :

I recommend reading this scenario-type prediction by @DKokotajlo and others on how AI could transform the world in just a few years. Nobody has a crystal ball, but this type of content can help notice important questions and illustrate the potential impact of emerging risks.

Traduction :

Je recommande de lire cette prédiction de type scénario par @DKokotajlo et d’autres sur comment l’IA pourrait transformer le monde en seulement quelques années. Personne n’a de boule de cristal, mais ce type de contenu peut aider à repérer des questions importantes et illustrer l’impact potentiel des risques émergents

Si le sujet vous intéresse, je vous recommande :

En vrac

OpenAI annonce vouloir publier des modèles en open-weight d’ici quelques mois.

OpenAI publie OpenAI Codex, un agent d’aide à la programmation (similaire à Aider ou Claude Code), en licence Apache 2.0. Sur ce sujet d’agents d’aide au code, un guide a été publié sur Github.

OpenAI rend disponible sur l’API leur nouveau modèle de génération d’image.

ChatGPT a maintenant la capacité de référencer vos conversations passées.

Google publie deux papiers dans Nature pour évaluer la performance de l’IA sur le diagnostic médical. Dans cette expérience, l’IA surpasse le médecin humain, au point que IA + humain a des performances pires que l’humain seul.

Google rend accessible son modèle de génération de vidéo, Veo 2, par l’intermédiaire d’une API.

DeepSeek présente une nouvelle méthode d’entraînement, Generalist Reward Modeling (GRM).

Des chercheurs de l’université de Zurich décident de mesurer la capacité de persuasion des IA en déployant (secrètement) un bot sur le subreddit r/changemymind (« Change mon avis »). Résultat primaire: les IA modernes sont très performantes à cette tâche, récoltant 6x plus de points « cela m’a aidé à changer mon avis » (sur ce subreddit : « deltas ») que l’humain median. Résultat secondaire: l’IA ne s’est pas faite détectée par la modération. Le papier n’est plus accessible suite à une controverse sur l’éthique de l’expérience (expérience sans consentement), mais vous pouvez toujours lire la première page.

Pour aller plus loin

Non couvert ici :

Télécharger ce contenu au format EPUB

Commentaires : voir le flux Atom ouvrir dans le navigateur

LoLiGrUB

Repas LoLiGrUB « pizza libre » ce 17 mai 2025


Wallonie
Publié le
mercredi 07 mai 2025 22h07
Importé le
jeudi 08 mai 2025 05h04
LoLiGrUB organise un repas du « libre » samedi 17/05 après l’atelier. L’objectif est de partager un agréable moment tous ensemble dans nos locaux habituels à Boussu (CAJMIR). Cette année, nous proposons une soirée pizza pour des questions de facilité d’organisation. Cette … Continuer la lecture
Libérons nos ordis

Install partie Linux au CEM du Havre


Normandie
Publié le
mercredi 07 mai 2025 14h43
Importé le
mercredi 07 mai 2025 21h05
Venez donner une nouvelle jeunesse à votre ordinateur !En remplaçant votre système Windows® [ou Mac®] par un système plus simple, plus sûr, plus rapide, plus sobre et libre - GNU/Linux - vous pouvez donner à votre ordinateur toute son efficacité et vou...
LinuxFr

Sortie de Tryton 7.6


Internet
Publié le
mercredi 07 mai 2025 10h19
Importé le
mercredi 07 mai 2025 13h05

Le 1er mai 2025 sortait la version 7.6 de Tryton, un progiciel de gestion intégré modulaire et multiplate-forme.

Tryton est basé sur une architecture trois tiers avec PostgreSQL comme base de données principale et est écrit en Python ce qui apporte une grande flexibilité et rapidité pour la customisation.
Il vient avec un ensemble de modules essentiels pour la gestion d’une entreprise, qui sont très aboutis. Il peut être complété par des modules tierces spécifiques à certaines activités (comme la gestion d’hôpital avec GNU Health, la gestion de distillerie avec Distilibre) ou permettant l’intégration à d’autres outils.
Enfin, il est utilisable à travers un client natif, un client web réactif et un client en ligne de commande. Tous ces clients sont légers et multiplateformes (Linux, BSD, Windows et macOS).

Comme la dernière annonce ici date de la version 7.2, voici une liste non-exhaustive d’améliorations notables :

  • Tryton a remplacé son plan comptable minimal par le plan comptable universel qui est une bonne base pour l'IFRS ou US GAAP.
  • Un logo peut être ajouté à la société gérée par Tryton. Celui-ci sera alors rendu sur les documents commerciaux que Tryton génère (ex: bon de commande, facture, etc.)
  • Les remplacements de produit sont maintenant géré automatiquement. Quand un produit, marqué comme étant remplacé par un autre, n'est plus en stock, il est remplacé sur tous les mouvements de stock. C'est utile afin de s'assurer de vider son stock existant avant de passer au nouveau produit.
  • Les tâches planifiées, qui sont en train d'être exécutées, sont affichées. De plus, Tryton enregistre la durée d'exécution pendant un mois afin de pouvoir détecter des anomalies.
  • Il est maintenant possible de configurer le serveur pour utiliser une autre commande que LibreOffice pour convertir les documents vers un autre format comme PDF. Par exemple, on peut utiliser un service externe comme document-converter
  • L'ORM de Tryton gère les contraintes d'exclusion basées sur les Range SQL. Ceci a permis de remplacer des contraintes écrites en Python qui verrouillaient la table.
  • Il est désormais possible de redimensionner les colonnes des listes aussi avec le client web. Et la taille des colonnes est sauvegardé sur le serveur par taille d'écran afin de les restaurer pour l'utilisateur à la prochaine ouverture.
  • Un délai de validité des devis peut être configuré. Une fois passé le délai, il n'est plus possible de convertir le devis en vente et celui-ci sera annulé automatiquement. De même, une date d'expiration de devis d'achat peut être encodée pour faciliter le suivi.
  • Il est maintenant possible de résoudre une plainte par la création d'un coupon de promotion.
  • On peut à présent enregistrer une adresse en utilisant les champs structurés. Dans ce cas, le formatage de celle-ci sera faite automatiquement par Tryton suivant le format des 222 pays connus.
  • Des méthodes pour faciliter la personnalisation du comportement de l'ORM ont été ajoutées afin de simplifier et d'éviter de devoir étendre les méthodes create, write et delete (qui peuvent être un peu compliquées). De plus, des champs stockés dans la base de données peuvent être définis comme étant calculés. Ils sont alors automatiquement mis à jour si leur valeur change. Ils sont principalement utilisés pour faire de la cache.
  • Tryton supporte maintenant les traductions des formes de pluriels (jusqu'à 4 par langue).

Une dernière chose, l'ajout en mode bêta d'un outil de chat en direct entre utilisateurs sur certains documents. Par la suite, ce chat doit évoluer pour devenir un outil de communication plus large et inclure des externes via e-mail (mais aussi d'autres supports de communication).
Cette fonctionnalité est développée via un appel à sponsors

Télécharger ce contenu au format EPUB

Commentaires : voir le flux Atom ouvrir dans le navigateur

ritimo

L'agriculture carbone : une tromperie qui gagne du terrain


Île-de-France
Publié le
mercredi 07 mai 2025 09h30
Importé le
mercredi 07 mai 2025 13h05

Des dizaines d'entreprises recrutent actuellement des agriculteurices pour participer à des programmes d'agriculture carbone. L'agriculture carbone est présentée comme une solution pour réduire les émissions dans le système alimentaire, mais en réalité, elle est utilisée comme un substitut à cette réduction.

- Articles et traductions / énergie fossile, veille internationale, article, agriculture intensive , pollution
LinuxFr

QEMU 10.0


Internet
Publié le
mardi 06 mai 2025 17h35
Importé le
mardi 06 mai 2025 21h03

Comme tous les ans, Qemu sort une nouvelle version majeure. Le numéro n'implique donc pas de grands bouleversements. Il s'agit plutôt d'une base stable qui va être maintenue et améliorée pendant quelques années. Ainsi, les versions 7, 8 et 9 ont eu des mises à jour en mars 2025.

Comme d'habitude, les architectures ARM et Risc-V se taillent la part du lion et sont enrichies de nouvelles architectures. Les accès aux stockages sont partout plus rapides, et l'espace utilisateur accède toujours mieux au matériel.

Qemu est devenu une pièce importante dans le monde des serveurs et des développeurs. En tant qu'émulateur il permet de développer, compiler ou lancer un programme sur un processeur ou une machine différente. Couplé à KVM, XEN ou VMWare, il permet une virtualisation performante.

Quoi de neuf ?

L'article de Next résume bien les changements sur ARM et Risc-V. C'est technique, n'étant pas connaisseur je vous y renvoie.

x86 bénéficie de changements globaux à toutes les architectures avec quelques ajouts spécifiques pour des processeurs Intel. Mon petit doigt impatient de tester me souffle que ça sera plus rapide avec des accés "multithread1" aux périphériques de stockage (virtio-scsi et virtio-blk). L'accès direct au matériel en espace utlisateur continue de s'améliorer (VFIO, fonctions virtuelles d'entrées-sorties).

Les autres changements concernent l'émulation des architectures HPPA et S390.

Attention aux trucs enlevés

À chaque version ou presque, des morceaux sont enlevés. Si vous faites dans l'exotique, ne vous précipitez pas sur la dernière version sans consulter la liste des Removed features.

Documentation d'introduction pour QEMU et la virtualisation

En guise de conclusion, voici quelques pistes pour ceux et celles qui débutent avec la virtualisation sous Linux et/ou QEMU. Différentes distributions Linux ont de la documentation sous licence libre. Loin d'être exhaustif, voici quelques choix :

  1. Qu'on me pardonne ce mot, je simplifie pour faire court! 

Télécharger ce contenu au format EPUB

Commentaires : voir le flux Atom ouvrir dans le navigateur

LinuxFr

Kivy : un cadriciel graphique unique en Python


Internet
Publié le
mardi 06 mai 2025 17h13
Importé le
mardi 06 mai 2025 21h03

Kivy est un cadriciel (framework) graphique, permettant de développer des interfaces tactiles (ou utilisable à la souris) sur toutes les plateformes, y compris mobiles. Il s'accompagne d'une suite de logiciels très pratiques que nous allons présenter ici.

Sommaire

Kivy : boîte à outils graphique multi-plateformes

Kivy permet de créer des interfaces graphiques naturellement adaptées aux écrans tactiles (mais qui restent utilisables sur un environnement de bureau traditionnel, à la souris et sans écran tactile). Il est écrit principalement en Python mais les parties critiques sont écrites en Cython, ce qui lui permet d’avoir de bonnes performances.

Une interface Kivy peut s’écrire de deux façons (ou, plus couramment, par une combinaison de ces deux façons) : en Python directement, ou via kv, une syntaxe déclarative dont nous parlons plus bas.

Pour vous donner une idée, voici un exemple de hello world repris du site officiel de Kivy :

from kivy.app import App from kivy.uix.button import Button class TestApp(App): def build(self): return Button(text='Hello World') TestApp().run()

Ce qui donnera :

Une interface est composée de « widgets » agencés via des « layouts ». Certains widgets permettent de facilement mettre en place des composants communs de nos jours, comme par exemple le widget Carousel :

D’autre part, Kivy fournit des outils qui simplifient la vie du développeur ou de la développeuse, en particulier un système de propriétés (à ne pas confondre avec les propriétés Python) qui permet de mettre automatiquement l’interface à jour quand elles sont modifiées, ou de facilement attacher une fonction de rappel (« callback »), voir plus bas pour un exemple simple. On peut aussi citer un mécanisme d’animations très pratique et efficace.

kv : interface graphique en déclaratif

kv est un langage permettant de décrire des interfaces, il met à profit les propriétés mentionnées plus haut et l’interface va se mettre à jour automatiquement quand des propriétés utilisées dans kv sont modifiées.

Reprenons le hello world vu plus haut, et faisons-le avec kv:

Widget: Button: text: "Hello World"

Plutôt simple non ?
Le code kv est généralement mis dans des fichiers séparés avec l’extension .kv.

Les propriétés

Kivy a donc un concept de propriété, qui permettent la liaison de données bidirectionnelles (two-way data binding), ou en d’autres termes de facilement avoir l’état mis à jour entre le code python et l’interface décrite dans le fichier kv. C’est à l’usage très pratique et facile.

Un exemple va sans doute aider à comprendre.

Commençons par faire un environnement virtuel Python avec Kivy:

$ mkdir demo $ cd demo $ python -m venv env $ source env/bin/activate $ pip install kivy

Ensuite créez le fichier demo.py suivant :

from kivy.app import App from kivy.uix.boxlayout import BoxLayout from kivy.properties import NumericProperty class CompteurWidget(BoxLayout): compteur = NumericProperty(0) def increment(self): self.compteur += 1 class DemoApp(App): def build(self): return CompteurWidget() DemoApp().run()

Et maintenant, dans le même répertoire, ajoutez le fichier demo.kv suivant, ce dernier sera automatiquement découvert par Kivy parce qu’il s’appelle comme notre application (DemoApp) sans le suffixe App et en minuscule :

<CompteurWidget>: orientation: 'vertical' padding: 20 Label: text: str(root.compteur) font_size: 30 Button: text: "Incrémenter" on_press: root.increment()

Il ne nous reste plus qu’à lancer le programme :

python demo.py

Et à admirer :

Le label se met automatiquement à jour quand le compteur compteur est incrémenté.

La lectrice ou le lecteur assidu de DLFP pourra faire un TapTempo en exercice.

Note: Ne vous arrêtez pas au fait que l’UI est un peu "moche" par défaut, il y a des extensions beaucoup plus attractives (cf. KivyMD plus bas), et il est très facile de personnaliser l’interface et d’en faire une très belle en modifiant un peu ses fichiers .kv.

Plyer : accéder facilement aux fonctionnalités matérielles de votre appareil

Plyer est une bibliothèque permettant d’accéder à nombre de fonctions utiles de manière indépendante de la plateforme. Ainsi vous avez une API commune pour afficher une notification, demander l’état de la batterie, faire vibrer l’appareil, faire de la synthèse vocale de texte (« text-to-speech »), ouvrir un fichier avec le dialogue natif de la plateforme, etc.

Bien que développé par la même équipe que Kivy, ce paquet est utilisable indépendamment et est donc particulièrement utile pour n’importe quel projet multi-plateformes. Référez-vous à la page du projet pour avoir un tableau des fonctionnalités supportées selon les plateformes, et à la documentation pour plus de détails.

Python For Android : utiliser Python… sur Android

Si vous souhaitez distribuer votre application sur Android, vous allez devoir avoir une version de Python compilée pour cette plateforme, ainsi que de tous les paquets nécessitant une compilation.

C’est le rôle de Python pour Android, qui est une collection d’outils qui s’appuient sur l’Android SDK pour permettre d’utiliser Kivy ou d’autre paquets Python sur Android, et ainsi faire votre propre distribution Python.

Si vous utilisez un paquet qui n’est pas en pur Python (c’est-à-dire qu’il y a des parties à compiler) et qui n’est pas encore disponible ou qui l’est mais dans une version trop ancienne, vous pouvez écrire ou mettre à jour des « recettes » (recipes en anglais) qui indiquent comment compiler. Référez-vous à la documentation pour voir comment faire.

Notez toutefois qu’il y a une pénalité à utiliser du Python par rapport à une application dans un langage compilé : il faut charger l’interprète au démarrage, et au tout premier lancement de votre application (et uniquement au premier) il y a aura une phase de décompression de vos fichiers. En dehors de ces petits inconvénients, ça fonctionne très bien.

Là encore, le projet est indépendant de Kivy et peut être utilisé avec un autre cadriciel.

Kivy for iOS : déployez sur les appareils Apple

À l’instar d’Android, l’équipe de Kivy fournit les outils pour faire votre distribution Python pour iOS.

Il vous faudra posséder une machine Apple pour les utiliser, à cause des restrictions imposées par cette plateforme (ceci n’est pas spécifique à Kivy pour iOS, mais s’applique à tous les outils pour développer sur iOS).

Ainsi avec une seule base de code (et après avoir passé un peu de temps pour configurer correctement les outils de compilation), vous pouvez déployer votre application Kivy/Python sur toutes les plateformes majeures (hormis le web, pour lequel il existe d’autres options comme Brython, Pyodide ou PyScript, mais c’est un sujet pour une autre dépêche).

Pyjnius : utiliser l’API Java Android depuis Python

Parfois l’utilisation de Plyer mentionné plus haut et de la bibliothèque standard Python ne suffisent pas, et vous avez besoin d’accéder à l’API d’Android, mais cette dernière est faite pour être utilisée avec Java ou Kotlin.

Pour pouvoir utiliser l’API d’Android depuis Python, PyJNIus est disponible. Ce paquet permet d’accéder aux classes Java comme à des classes Python en utilisant JNI (« Java Native Interface » ou « Interface Native de Java »).

Ce paquet fournit une méthode autoclass qui convertit automatiquement une classe Java en Python, c’est très facile à utiliser et souvent suffisant pour les cas simples.

KivyMD, des widgets Material Design

KivyMD n’est pas un projet officiel de l’équipe Kivy, mais un projet tiers dédié à la création d’un ensemble de Widgets thémables adoptant Material Design.

L'image ci-dessus est issue de la documentation de KivyMD, vous trouverez également des démos vidéo sur le dépôt du projet.

Quelques limitations

Une petite note sur mon expérience personnelle (Goffi). Kivy est un excellent cadriciel, et l’équipe est accueillante et réactive : c’est un projet que je recommanderais en général. Ceci dit, dans mon cas particulier (un client XMPP ayant de nombreuses fonctionnalités), j’ai quelques limitations qui me poussent actuellement à chercher des alternatives, notamment basées sur Qt (PyQt et PySide) :

  • l’accessibilité est un problème majeur. L’équipe y travaille, mais aujourd’hui les applications Kivy ne sont pas accessibles. C’est notamment dû au fait que l’interface utilisateur est entièrement gérée par Kivy, au lieu d’utiliser des composants natifs, et c’est un point complètement bloquant pour moi.
  • il n’y a pas de webview ou de rendu HTML natif, ce qui est bloquant parce que je fais du rendu de blogs.
  • le rendu de texte est incomplet, notamment sur les plateformes mobiles. C’est compliqué de faire un rendu riche avec des émojis, par exemple, un gros problème pour une application de messagerie de nos jours.
  • le support des portails Freedesktop est inexistant : il faut faire l’implémentation à la main, alors qu’il est natif sur des cadriciels majeurs comme GTK ou Qt. Je pense par exemple à l’ouverture ou l’enregistrement de fichier. Les portails sont particulièrement nécessaires si on veut voir son application sur Flatpak. Plus de détails sur ce ticket.
  • le support Wayland existe, mais lors de mes tests sur des distributions GNU/Linux sur Pinephone, il n’a pas fonctionné et je n’ai pas pu afficher l’application.
  • le chargement de l’interprète Python prend un certain temps, ce qui rend le lancement de l’application sur plateformes mobiles telle qu’Android et probablement iOS (que je n’ai pas testé) un peu lent. Sachant que sur ces plateformes l’application peut être tuée à n’importe quel moment auquel cas il faut tout relancer, cela peut mener à une mauvaise expérience utilisateur. Ceci dit, avec une distribution optimisée (en enlevant les paquets non utilisés), et sur les téléphones actuels qui sont très puissants, le problème est sans doute moindre.

Notez que je n’ai pas eu l’occasion de travailler avec Kivy récemment, peut-être que ces remarques ne sont plus à jour. Merci d’indiquer en commentaires s’il y a eu de l’évolution sur ces points.

Aussi, mon cas d’utilisation est très demandant (rendu HTML, affichage de texte performant, etc). Dans la plupart des cas, Kivy remplit sans problème toutes les cases (sauf l’accessibilité, qui reste son problème le plus important à mon sens).

Conclusion

Comme vous pouvez le voir, un travail considérable a été effectué sur Kivy et son écosystème, et il en sort un cadriciel performant, pratique, et qui peut potentiellement fonctionner sur la plupart des plateformes. Kivy est agréable à utiliser, et dispose d’une communauté très active et disponible.

Ce cadriciel mérite de s’y attarder, et est une option sérieuse si vous voulez développer un projet rapidement pour une ou plusieurs plateformes.

Une note d’histoire

Cette dépêche a été commencée le 04 octobre 2018 à 14:19 (au premier jour de la Pycon FR 2018, à Lille, où une partie de l’équipe de Kivy était présente). Je crois que c’est haut la main la dépêche qui est restée le plus longtemps dans l’espace de rédaction. Comme quoi, tout vient à point à qui sait attendre, comme dirait l’autre.

Merci à toutes les personnes qui ont participé à la correction de la dépêche.

Télécharger ce contenu au format EPUB

Commentaires : voir le flux Atom ouvrir dans le navigateur

April

#245 - Au café libre - Range tes affaires dans la Piratebox - À nous de jouer - « Libre à vous ! » diffusée mardi 29 avril 2025 sur radio Cause Commune


Île-de-France
Publié le
mardi 06 mai 2025 15h44
Importé le
mardi 06 mai 2025 21h03

Libre à vous !, l’émission de l’April, l’association de promotion et de défense du logiciel libre. Prenez le contrôle de vos libertés informatiques, découvrez les enjeux et l’actualité du libre.

Au programme de la 245e émission :

  • sujet principal : Au café libre : débat autour de l’actualité du logiciel libre et des libertés informatiques.
  • Chronique À cœur vaillant, la voie est libre de Laurent et Lorette Costy : « Range tes affaires dans la Piratebox »
  • Une nouvelle Pituite de Luk : « À nous de jouer »
  • quoi de Libre ? Actualités et annonces concernant l'April et le monde du Libre

Écouter les podcasts

S'abonner au podcast

S'abonner à la lettre d'actus

Infini

L'hébergement Web sans Data Center


Bretagne
Publié le
mardi 06 mai 2025 14h04
Importé le
mardi 06 mai 2025 21h03

Le vendredi 6 juin de 18h30 à 20h se tiendra une conférence avec Baptiste, l'un des bénévoles de l'association Deuxfleurs.
Pour cette soirée, l'association Infini invite l'un des autres membres du Collectif des Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires, le CHATONS. La conférence sera suivie d'un apéritif partagé au sein de nos locaux.
L'association Deuxfleurs a pour objectif de fabriquer un Internet convivial et Low-Tech. Pour cela, elle héberge des (…)

- Actualités
MJC Chenôve

L’amitié franco-allemande au coeur d’une soirée ciné !


Bourgogne-Franche-Comté
Publié le
mardi 06 mai 2025 10h34
Importé le
mardi 06 mai 2025 13h06

En partenariat avec le comité de jumelage Chenôve – Limburgerhof, les Maisons Pop de Chenôve ont programmé le film de Natja Brunckhorst « la belle affaire ». Cette comédie – adaptation d’un fait ayant réellement existé nous a permis d’aborder la période de la réunification allemande à l’aube des années 1990. Mme Inna Grëenzig, allemande vivant en […]

L’article L’amitié franco-allemande au coeur d’une soirée ciné ! est apparu en premier sur Les Maisons Pop de Chenôve.

MJC Chenôve

Plongée dans le stage radio des vacances de printemps


Bourgogne-Franche-Comté
Publié le
mardi 06 mai 2025 10h23
Importé le
mardi 06 mai 2025 13h06

Plongée dans le stage radio des vacances de printemps : interviews, reportages et initiation aux coulisses de la radio ! Retour en images sur cette aventure sonore portée par Maryam et Noam.   PS : Restez à l’affût… la web radio créée par nos jeunes arrive bientôt !

L’article Plongée dans le stage radio des vacances de printemps est apparu en premier sur Les Maisons Pop de Chenôve.

MJC Chenôve

Retour en images sur le séjour ados à Strasbourg !


Bourgogne-Franche-Comté
Publié le
mardi 06 mai 2025 10h11
Importé le
mardi 06 mai 2025 13h06

Au programme : balades à vélo à travers les quartiers de la ville jusqu’en Allemagne, immersion ludique et scientifique au Vaisseau, découverte du Parlement européen, sans oublier la majestueuse cathédrale et bien d’autres moments partagés ! Un séjour riche en découvertes, en rires et en souvenirs….

L’article Retour en images sur le séjour ados à Strasbourg ! est apparu en premier sur Les Maisons Pop de Chenôve.

Numericatous

Comment choisir sa distribution Linux ?


Centre-Val de Loire
Publié le
mardi 06 mai 2025 10h08
Importé le
mardi 06 mai 2025 13h07
Quand on débute et qu’on veut passer sous Linux, il est souvent difficile de choisir une distribution. Il n’y a qu’à aller sur le site de Distrowatch pour se rendre compte du choix ! Alors forcément, ça n’aide pas. Il faut donc se renseigner et définir un peu ses besoins avant de se lancer. Choisir […]
CERCLL

Tout ce qu’il faut savoir sur LibreOffice 25.2.3.


Provence-Alpes-Côte d'Azur
Publié le
mardi 06 mai 2025 07h44
Importé le
mardi 06 mai 2025 13h05
Lors de sa sortie en février, LibreOffice 25.2 s’annonçait fièrement comme une mise à jour majeure de la suite bureautique open source la plus populaire au monde. Avec des améliorations significatives de l’interface utilisateur, des fonctionnalités accrues en matière d’accessibilité et (une nouvelle fois) une meilleure compatibilité avec les formats Microsoft Office, cette version se […]
CLX

Fourmies : Atelier « Qu'est-ce que l'IA ? », Le samedi 24 mai 2025 de 14h00 à 16h00.


Hauts-de-France
Publié le
lundi 05 mai 2025 23h04
Importé le
mardi 06 mai 2025 05h04
- Agenda / CLX, Install-Party, Démonstration, Fourmies, Le Central
CLX

Fourmies : Atelier « Qu'est-ce que l'IA ? », Le samedi 24 mai 2025 de 14h00 à 16h00.


Hauts-de-France
Publié le
lundi 05 mai 2025 22h38
Importé le
mardi 06 mai 2025 05h04

Dans le cadre d'un partenariat avec la ville de Fourmies et la médiathèque Antoon Kring,
l'Association Club Linux Nord Pas de Calais organise un atelier débat sur le thème de l'Intelligence Artificielle.
De 14h00 à 16h, venez découvrir et discuter sur le thème de l'intelligence artificielle.
L'IA C'EST QUOI ?
De plus en plus présente dans notre quotidien, l'IA fait parler.
Venez découvrir et débattre sur l'intelligence artificielle.
Ados, adultes - Sur inscription

- Fourmies / CLX, Install-Party, Démonstration, Fourmies, Le Central
CLX

Beauvais : Sensibilisation et partage autour du Libre, Le mercredi 28 mai 2025 de 18h00 à 20h00.


Hauts-de-France
Publié le
lundi 05 mai 2025 22h34
Importé le
mardi 06 mai 2025 05h04

Chaque mercredi soir, l'association propose une rencontre pour partager des connaissances, des savoir-faire, des questions autour de l'utilisation des logiciels libres, que ce soit à propos du système d'exploitation Linux, des applications libres ou des services en ligne libres.
C'est l'occasion aussi de mettre en avant l'action des associations fédératrices telles que l'April ou Framasoft, dont nous sommes adhérents et dont nous soutenons les initiatives avec grande reconnaissance.

- Agenda / Oisux, Démonstration
CLX

Beauvais : Sensibilisation et partage autour du Libre, Le mercredi 21 mai 2025 de 18h00 à 20h00.


Hauts-de-France
Publié le
lundi 05 mai 2025 22h33
Importé le
mardi 06 mai 2025 05h04

Chaque mercredi soir, l'association propose une rencontre pour partager des connaissances, des savoir-faire, des questions autour de l'utilisation des logiciels libres, que ce soit à propos du système d'exploitation Linux, des applications libres ou des services en ligne libres.
C'est l'occasion aussi de mettre en avant l'action des associations fédératrices telles que l'April ou Framasoft, dont nous sommes adhérents et dont nous soutenons les initiatives avec grande reconnaissance.

- Agenda / Oisux, Démonstration
CLX

Beauvais : Sensibilisation et partage autour du Libre, Le mercredi 4 juin 2025 de 18h00 à 20h00.


Hauts-de-France
Publié le
lundi 05 mai 2025 22h32
Importé le
mardi 06 mai 2025 05h04

Chaque mercredi soir, l'association propose une rencontre pour partager des connaissances, des savoir-faire, des questions autour de l'utilisation des logiciels libres, que ce soit à propos du système d'exploitation Linux, des applications libres ou des services en ligne libres.
C'est l'occasion aussi de mettre en avant l'action des associations fédératrices telles que l'April ou Framasoft, dont nous sommes adhérents et dont nous soutenons les initiatives avec grande reconnaissance.

- Agenda / Oisux, Démonstration
CLX

Lille : Permanence associative autour du Libre, Le mardi 27 mai 2025 de 20h00 à 22h00.


Hauts-de-France
Publié le
lundi 05 mai 2025 22h29
Importé le
mardi 06 mai 2025 05h04
- Agenda / CLX, Mercredi-Linux (Mardi-Linux), Chtinux, ClissXXI, Démonstration, Mycélium, RAOULL, Lille, Deux Fleurs
CLX

Lille : Permanence associative autour du Libre, Le mardi 27 mai 2025 de 20h00 à 22h00.


Hauts-de-France
Publié le
lundi 05 mai 2025 22h27
Importé le
mardi 06 mai 2025 05h04

Vous avez décidé de reprendre en main votre vie numérique ? Venez nous rencontrer le dernier mardi de chaque mois au Café Citoyen à Lille !
La permanence associative autour du Libre est une manifestation conviviale, ouverte à toutes et tous, organisée le dernier mardi (ou jeudi) de chaque mois par les collectifs de Chtinux (Raoull, Deuxfleurs , Mycélium , CLX , Cliss XXI , ...).
Rejoignez-nous pour y discuter joyeusement de Logiciel Libre, de Culture Libre, de données ouvertes (open (…)

- Lille / CLX, Mercredi-Linux (Mardi-Linux), Chtinux, ClissXXI, Démonstration, Mycélium, RAOULL, Lille, Deux Fleurs