Antropic, connue pour Claude AI, alerte sur les risques de l’IA ?

Choses à Savoir TECH - A podcast by Choses à Savoir

Categories:

Anthropic, la société derrière l’intelligence artificielle Claude AI, lance un avertissement : la fenêtre pour une régulation proactive et efficace de l’IA se referme rapidement. Alors que les modèles d’intelligence artificielle progressent à un rythme fulgurant dans des domaines comme la cybersécurité ou l’ingénierie, les risques associés grandissent tout aussi vite. Anthropic alerte sur les potentielles utilisations malveillantes des capacités d’IA avancée, notamment dans des activités de cybercriminalité et même dans la prolifération d’armes chimiques, biologiques et nucléaires (CBRN).Face à ces risques croissants, l’entreprise prône une régulation « chirurgicale » et structurée, inspirée de sa propre politique de mise à l’échelle responsable (RSP). Cette approche, dit-elle, repose sur trois piliers : la transparence des modèles, le renforcement des bonnes pratiques en matière de sécurité, et des mesures simples, mais ciblées. En mettant l’accent sur une gestion proportionnée des risques en fonction des capacités des modèles d’IA, Anthropic appelle à une réglementation qui protège sans freiner l’innovation.C’est un véritable plaidoyer collectif qu’Anthropic lance aujourd'hui, exhortant les gouvernements, les experts en sécurité, les entreprises d’IA et la société civile à agir de concert dans les 18 prochains mois pour éviter le scénario du pire. Car si la régulation arrive trop tard ou est mal conçue, on risque de se retrouver dans « le pire des deux mondes » : des règles inefficaces qui freineraient l’innovation sans limiter les dangers. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Visit the podcast's native language site