Actualités

JPMorgan interdit à ses employés d’utiliser ChatGPT, le chatbot à la mode

Published

on

ChatGPT est un outil de génération de texte basé sur l’intelligence artificielle, développé par la société de recherche OpenAI. Il suffit de lui donner une courte consigne pour qu’il produise un texte convaincant, qu’il s’agisse d’un essai académique, d’un scénario créatif ou d’un code informatique. Depuis sa sortie publique en novembre 2022, ChatGPT a connu un succès fulgurant, attirant plus de 100 millions d’utilisateurs actifs par mois en janvier 2023. Mais il a aussi suscité des inquiétudes sur ses risques potentiels, notamment en matière de protection des données et de fiabilité des informations.

JPMorgan restreint l’usage de ChatGPT parmi ses employés

Face à ces préoccupations, la plus grande banque américaine, JPMorgan Chase, a décidé de limiter l’utilisation de ChatGPT parmi ses 250 000 employés, selon une source proche du dossier. La décision n’a pas été motivée par un incident particulier, mais par le respect des contrôles habituels sur les logiciels tiers, en raison des exigences de conformité du secteur bancaire. JPMorgan Chase a refusé de commenter l’information.

Voici une vidéo relatant des problèmes liés à l’utilisation de ChatGPT :

ChatGPT, un outil révolutionnaire mais controversé

ChatGPT est le fruit du travail d’OpenAI, une entreprise de recherche en intelligence artificielle cofondée par Elon Musk et soutenue par Microsoft. Il repose sur un modèle d’apprentissage profond qui analyse des milliards de textes provenant d’internet pour apprendre à les imiter. Il peut ainsi répondre à n’importe quelle requête textuelle avec une grande fluidité et une certaine créativité.

Mais ChatGPT n’est pas sans défauts. Il peut produire des erreurs factuelles, des biais ou des comportements inappropriés, selon les données qu’il utilise et les consignes qu’il reçoit. OpenAI a reconnu ces problèmes et a annoncé travailler à les réduire et à permettre aux utilisateurs de personnaliser le comportement du chatbot.

Les entreprises face au défi de l’intelligence artificielle

Le succès viral de ChatGPT a lancé une course effrénée entre les entreprises technologiques pour proposer des produits basés sur l’intelligence artificielle. Google a récemment dévoilé son concurrent de ChatGPT, qu’il appelle Bard, tandis que Microsoft a présenté son chatbot Bing AI à un nombre limité de testeurs.

Mais ces innovations soulèvent aussi des questions éthiques et juridiques. Comment garantir la qualité et la véracité des informations générées par l’intelligence artificielle ? Comment protéger les données personnelles et confidentielles des utilisateurs ? Comment éviter les abus ou les détournements de ces outils ?

Ces questions sont particulièrement sensibles pour le secteur bancaire, qui manipule des informations financières délicates et qui est étroitement surveillé par les régulateurs. En 2021 et 2022, les autorités américaines ont infligé plus de 2 milliards de dollars d’amendes à une douzaine de banques pour l’utilisation non autorisée de services de messagerie privée par leurs employés.

Les écoles aussi limitent l’usage de ChatGPT

Les établissements scolaires sont également concernés par les risques liés à ChatGPT. Certains craignent que l’outil puisse être utilisé pour tricher sur les devoirs ou les examens. Les écoles publiques de New York ont interdit son usage en janvier 2023.

ChatGPT est donc un outil fascinant mais potentiellement dangereux. Il offre des possibilités inédites de création et d’interaction textuelle, mais il pose aussi des défis énormes en matière de sécurité et d’éthique. Il faudra donc être vigilant et responsable dans son utilisation, et suivre attentivement son évolution.

Trending

Quitter la version mobile