Temps de lecture : 3mn
Bonjour à tous,
Avec Théo Leblanc, on s’est intéressé à la première loi pour réguler nos interactions avec les chatbots : SB 243.
Il a sorti un article hier sur l’impact de cette loi dans le marché de l’IA, je vous invite à le découvrir juste ici :
De notre côté, on va se concentrer sur l’aspect juridique de la loi.
Parce qu’à mon avis, SB 243 est la première brique d’un véritable droit de la relation entre l’homme et l’IA.
Objectif affiché : la protection des mineurs.
L’intention est bonne, mais elle ouvre une boîte de Pandore juridique qui va reconfigurer produit, conformité et responsabilité dans tous les États.
On plonge dans la problématique ensemble.
Arnaud

Tout ce qu’il faut savoir sur SB 243

Depuis un an, je tire la sonnette d’alarme sur l’IA de compagnie.
Ces chatbots qui reproduisent les émotions humaines, à tel point qu’ils brouillent la frontière avec les vraies relations.
Et la Californie vient de proposer une solution par la loi.
Le projet SB 243 a franchi l’Assemblée et le Sénat à Sacramento avec un soutien bipartisan et attend la signature du Gouverneur.
S’il est promulgué, il s’appliquera au 1ᵉʳ janvier 2026 avec des obligations de transparence renforcées à partir du 1ᵉʳ juillet 2027.
Pourquoi ce coup d’accélérateur ?
Déjà, à cause d’un drame : le suicide d’un adolescent, Adam Raine, après des échanges prolongés avec un chatbot.
Matthew Raine, Father of ChatGPT Victim:
"Testifying before Congress this fall was not in our life plan. But instead, we're here because we believe that Adam's death (at just 16 years old) was avoidable, & that by speaking out, we can prevent the same suffering for families."
— #Senator Hawley Press Office (#@SenHawleyPress)
8:07 PM • Sep 16, 2025
Mais c’est loin d’être la seule affaire.
Des fuites internes chez Meta montrent que certains systèmes avaient l’autorisation d’entretenir des conversations « romantiques » avec des mineurs.
Pendant ce temps, la Federal Trade Commission (FTC), les procureurs d’États et le Sénat fédéral réagissent à coup d’enquêtes et d’auditions.
L’affaire n’est plus seulement morale, elle devient juridique.
Ce que change vraiment SB 243
SB 243 cible les chatbots relationnels, des IA capables de répondre à des besoins sociaux de l’utilisateur.
Concrètement, des services type Replika (compagnon affectif), Character.AI (personnages “amis/mentors”), mais aussi des copilotes bien-être intégrés à des apps.
Même des features “romance/roleplay” dans des chatbots généralistes peuvent être concernées.
Bref, tous les produits qui mémorisent, personnalisent et simulent l’empathie pour répondre à un besoin social.
Et c’est nouveau, donc la réponse est encore expérimentale.
La loi identifie trois familles de garde-fous côté entreprise :
Des restrictions de contenu, avec interdiction de dialoguer avec les mineurs sur le suicide, l’auto-mutilation et les contenus sexuels explicites.
Des cadres pour l’usage, avec des rappels réguliers que « vous parlez à une IA, pas à un humain » et des incitations à faire une pause. Toutes les trois heures pour les mineurs.
Pour ces derniers, quand un risque est détecté, l’IA redirige automatiquement vers des services adaptés.
Enfin, des obligations de transparence, avec la mise en place de rapports annuels sur les cas de dépendance et une demande d’informations claires sur les limites du système.
Mais le point de conflit du texte se situe côté utilisateur.
Parce que SB 243 crée un droit d’action privé.
Toute personne se disant lésée par une violation peut saisir le juge pour obtenir injonction, dommages-intérêts, et remboursement des frais d’avocat.
Autrement dit, la responsabilité pèserait entièrement sur les entreprises à l’origine des IA.
Conjugué au risque d’enquêtes administratives, si votre produit ne prévient pas, n’oriente pas, ou laisse passer du contenu prohibé, vous payez.
Le texte initial prévoyait même d’aller encore plus loin, avec :
Une interdiction des mécaniques d’engagement considérées comme addictives,
L’obligation de journaliser chaque initiation de conversation sensible par le chatbot.
Ces exigences ont été allégées pour éviter une usine à gaz administrative.
Malgré tout, est-ce que cette loi est vraiment la solution pour répondre efficacement au problème ?
Ni le COPPA (règlement sur la protection des données des moins de 13 ans) ni les règles publicitaires ne suffisent à encadrer IA qui simulent l’empathie.
SB243 serait la solution.
Sauf que le texte n’est pas à l’abri de contentieux constitutionnels.
Surtout s’il est considéré contraire au 1er Amendement sur la liberté d’expression, ou à la Section 230 dissociant la responsabilité des plateformes des contenus tiers.
Mais le cœur de la loi porte moins sur la modération de contenus publiés que sur des obligations de conception.
Les tribunaux sont plus enclins à valider ces devoirs de sécurité qu’une censure éditoriale pure.
Alors comment anticiper SB 243 dès maintenant ?
Votre feuille de route
Pourquoi nous écouter ?
Avec Hashtag Avocats, nous accompagnons 300+ entreprises sur la conception responsable, la rédaction des politiques d’usage et les plans de réponse.
La Californie joue, comme souvent, le rôle de laboratoire normatif.
Quand elle crée un standard, les acteurs nationaux harmonisent pour éviter les versions régionales.
Attendez-vous à deux trajectoires parallèles :
Les législatures démocrates reprendront SB 243 quasiment à l’identique.
D’autres États tenteront des variantes (restrictions d’âge plus dures, interdiction stricte de la « romance IA », ou à l’inverse, allègement des devoirs de reporting).
Ce millefeuille juridique américain a déjà amené plus de 1 000 projets de loi IA à être déposés aux États cette année.
Et pendant ce temps-là, la bataille politique s’intensifie.
Entre les alliances politiques financées par la tech pour pousser une approche libérale, et les entreprises pro-régulation.
Les lignes bougent en permanence.
Si vous êtes une entreprise d’IA, soit vous ne vendez plus en Californie, soit vous adoptez une conformité calée sur SB 243.
En clair, si votre service est accessible aux Californiens, vous avez intérêt à appliquer partout les mêmes règles.
C’est plus sûr juridiquement, et moins coûteux techniquement que de segmenter les comportements de votre modèle par géographie.
Construisez une conformité by design :
Une sécurité explicite pour les mineurs,
Des détections robustes des signaux de détresse,
Un protocole vers des ressources d’urgence,
Des rappels de nature artificielle à intervalles contrôlés,
Et un journal d’événements (utile devant un juge).
Mieux vaut se conformer intelligemment que de subir le premier recours collectif à 1 000 $ la violation.
À mon avis, SB 243 est un bon projet, à condition de le mettre en œuvre intelligemment.
On ne régulera jamais la solitude par décret, mais on peut éviter que des systèmes très persuasifs franchissent des lignes rouges avec nos enfants.
Quel standard imposeriez-vous à une IA relationnelle ?

Votre produit entre dans la définition SB 243 ?
→ Obtenez un plan d’action en 20 min :

Merci d’avoir suivi cette édition !
À très vite,
Arnaud