HUMAN IN THE LOOP
-
Playbook CTO : intégrer des agents IA sans compromettre la sécurité, et le GEO
Les agents IA ne sont plus de simples assistants textuels, ils envoient désormais des e-mails, mettent à jour un CRM,…
Lire la suite -
Qui est responsable si un salarié met des données clients RGPD dans ChatGPT ?
Lorsqu’un salarié saisit des données personnelles dans un outil d’IA tiers comme ChatGPT, la responsabilité revient à l’entreprise, en tant…
Lire la suite -
Qui est responsable si un bot enregistre une réunion sans consentement ?
Lorsqu’un assistant virtuel rejoint une réunion et enregistre la conversation sans informer les participants, la responsabilité incombe d’abord à l’entreprise.…
Lire la suite -
Jusqu’où va la responsabilité du DPO face à un Shadow AI dont il ignore l’existence ?
Le DPO n’est pas tenu d’être omniscient, mais il doit démontrer qu’il a mis en place des mécanismes raisonnables pour…
Lire la suite -
L’entreprise peut-elle être tenue responsable d’une fuite provenant d’un outil IA utilisé sans validation ?
Oui. En matière de RGPD, c’est toujours l’entreprise qui endosse la responsabilité du traitement des données, même si la fuite…
Lire la suite -
Du risque à l’opportunité : comprendre l’impact du Shadow AI
L’accélération des usages d’intelligence artificielle générative dans les entreprises fait émerger un phénomène critique, le Shadow AI. Après le Shadow…
Lire la suite -
Cartographier les risques IA, c’est gouverner l’usage avant qu’il ne vous échappe
Dans les entreprises comme dans les administrations, l’intelligence artificielle se déploie plus vite qu’elle n’est maîtrisée. Portées par les métiers,…
Lire la suite -
MCP, NLWeb, LLMs.txt : décryptage des nouveaux protocoles qui structurent l’accès des IA au web
Une nouvelle génération de protocoles émerge pour structurer leur interaction avec les contenus en ligne, et alors que les intelligences…
Lire la suite -
Leçons d’un CTO SaaS dans l’ère IA : aligner recherche appliquée, produit et vitesse de build
Dans les sociétés SaaS de nouvelle génération, la responsabilité du CTO ne se limite plus à arbitrer les choix techniques.…
Lire la suite -
Cartographier les risques de l’IA : une priorité stratégique pour les entreprises
Face à l’essor des usages non maîtrisés et à la pression réglementaire croissante, la capacité à anticiper, documenter et contrôler…
Lire la suite -
Peut-on vraiment entraîner un LLM sur des données personnelles ?
L’essor des modèles de langage de grande taille (LLM) tels que GPT, LLaMA ou Mistral marque un tournant dans l’automatisation…
Lire la suite -
LLM vs LCM : quelle IA pour classifier les données sensibles ?
Dans un contexte où la masse de données produites par les entreprises croît de façon exponentielle, la classification devient un…
Lire la suite -
Mistral AI sait lire entre les lignes de vos documents
Si la plupart des solutions d’OCR (Optical Character Recognition) se limitent à la reconnaissance brute de caractères, sans réelle compréhension…
Lire la suite -
Laissez l’IA vous contredire.
L’intelligence artificielle ne se contente plus d’obéir, elle réfléchit, elle questionne, elle provoque. On l’avait cantonnée à un rôle d’assistant…
Lire la suite -
Mieux comprendre les trois grandes approches de l’IA
Entre les modèles massifs, conçus pour maximiser la performance au prix d’une infrastructure lourde, les modèles optimisés, qui privilégient l’efficacité…
Lire la suite -
DeepSeek en 6 points : ce qu’il faut savoir sur son fonctionnement
DeepSeek, développé par High-Flyer Capital, suscite de nombreuses interrogations sur son modèle de développement. Voici une explication détaillée en 6…
Lire la suite






