« Le comportement du modèle reste inchangé », ChatGPT ne s’interdira pas de donner des conseils juridiques et médicaux

6 Min Read


ChatGPT répond facilement à des questionnements d’ordre médical, juridique ou financier. Et le chatbot d’OpenAI va continuer à le faire, contrairement à ce qu’une information laissait entendre ces jours-ci. Mais l’entreprise rappelle que l’IA générative n’est pas pour autant un substitut aux professionnels. En clair, passer par eux reste le mieux à faire.

C’est un imbroglio né de la plus récente mise à jour des politiques d’utilisation de ChatGPT, datée du 29 octobre 2025. À en croire un message, supprimé depuis, de Kalshi, un site de marché prédictif semblable à Polymarket, OpenAI aurait pris la décision d’interdire à son chatbot de fournir des conseils médicaux ou juridiques aux internautes.

Cette hypothèse, reprise sur X (ex-Twitter) et par d’autres sites comme IB Times ou Geekspin, concernerait même les conseils financiers, selon Nexta sur X. Là encore, tout le monde se réfère à la dernière actualisation des politiques d’utilisation de ChatGPT ; avant le 29 octobre, il faut remonter au 29 janvier pour retrouver la précédente modification.

ChatGPT ne remplace pas les professionnels, mais ne s’interdit pas de répondre

Mais cette lecture des politiques d’utilisation est fausse, prévient un cadre d’OpenAI. Karan Singhal, qui travaille sur des modèles de langage (LLM) appliqués au domaine de la santé, a pris la parole sur le réseau social pour démentir le message de Kalshi — et par conséquent tous ceux qui se sont basés dessus.

« C’est inexact. Malgré les spéculations, il ne s’agit pas d’un nouveau changement de nos conditions Le comportement du modèle reste inchangé. ChatGPT n’a jamais été un substitut aux conseils professionnels, mais il continuera d’être une excellente ressource pour aider les gens à comprendre les informations juridiques et de santé », écrit l’intéressé.

La prescription de placebo fait débat dans le milieu médical. // Source : Canva
ChatGPT peut servir de base, mais une validation par un professionnel reste recommandée. // Source : Canva

Actuellement, les conditions d’utilisation de ChatGPT indiquent que « vous ne pouvez pas utiliser nos services pour les finalités » telles que « les jeux en argent réel », et « services de conseil sur mesure nécessitant un diplôme, tel que les conseils juridiques ou médicaux, sans l’implication d’un professionnel qualifié ».

D’autres restrictions sont énoncées (violence sexuelle ou contenu sexuel non consenti, menaces, intimidation, harcèlement ou diffamation, test de sécurité non sollicité, etc.). Cependant, les règles concernant les conseils médicaux ou juridiques ne constituent pas un changement notable par rapport aux anciennes limites fixées par OpenAI.

Dans le cadre précédent, OpenAI disait déconseiller de s’appuyer sur des « conseils juridiques, médicaux/sanitaires ou financiers personnalisés sans examen par un professionnel qualifié et sans divulgation de l’utilisation de l’assistance IA et de ses limites potentielles », en raison de la nuisance potentielle que cela peut faire courir aux individus.

ChatGPT rappelle (discrètement) qu’il peut se tromper et qu’il faut vérifier

Autrement dit, ChatGPT ne va pas spécifiquement arrêter de livrer des avis sur ces thématiques, mais assure ses arrières en expliquant qu’il convient de mettre dans la boucle un professionnel qualifié. En creux, ChatGPT peut être une base sur laquelle s’appuyer, pour avoir une première piste de réflexion, mais qu’il faut ensuite confirmer par un spécialiste.

C’est une logique proche des avertissements sur certaines pages Wikipédia (dans le médical et le juridique, mais pas que), comme celle sur le covid-19. Un bandeau de mise en garde prévient que des informations obsolètes ou inexactes peuvent subsister — d’autant que des sections sur la transmission, le diagnostic, le traitement et la vaccination sont présentes.

En l’espèce, le bandeau rappelle que « seul un professionnel de la santé est apte à vous fournir un avis médical ». Il est vrai que ChatGPT dit aussi que « ChatGPT peut commettre des erreurs. Il est recommandé de vérifier les informations importantes ». Mais dans une note de bas de page à peine visible.

Pour aller plus loin
Source : Montage NumeramaSource : Montage Numerama
Toute l'actu tech en un clien d'oeil

Toute l’actu tech en un clin d’œil

Ajoutez Numerama à votre écran d’accueil et restez connectés au futur !




Source link

Share This Article
Aucun commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *