La rapide évolution de l'intelligence artificielle suscite des inquiétudes croissantes au sein de la société, mais récemment, cette anxiété a pris une tournure inquiétante avec des actes de violence visant des personnalités du secteur. En témoignent les récents événements, comme un cocktail molotov lancé contre la maison de Sam Altman, PDG d'OpenAI, et des tirs sur la propriété de Ron Gibson, un élu de l'Indiana soutenant un projet de centre de données. Ces incidents reflètent une angoisse grandissante face aux implications de l'IA et un ressentiment croissant envers ceux qui détiennent le pouvoir, une tendance que certains critiques du secteur cherchent à dissocier.
En fait, ces actions se déroulent dans un contexte où la paranoïa autour de l'IA semble atteindre des sommets. Le propriétaire de l'engin incendiaire a exprimé, dans un manifeste, sa crainte d'une "extinction imminente" due à l'IA, appelant Altman à "se racheter" s'il survit à l'attaque.
Une fracturation numérique grandissante
La situation actuelle est exacerbée par des discours alarmistes autour de l'IA, qui, selon des experts tels que Nirit Weiss-Blatt, auteur d'un livre sur l'hostilité envers la technologie, ne sont pas nouveaux mais semblent plus extrêmes aujourd'hui. Elle note un fossé entre les critiques de l'IA, qui soulignent des problèmes tels que le chômage et la dégradation environnementale, et les discours catastrophistes qui amplifient cette colère, comme l'explique le sceptique de l'IA Daniel Moreno-Gama. Sa colère semble alimentée par des publications telles que "If Anyone Builds It, Everyone Dies", qui a contribué à forger un imaginaire collectif autour des dangers de l'IA.
Les incidents de violence semblent maintenant s'inscrire dans un cadre plus vaste, selon Mauro Lubrano, professeur à l'université de Bath, qui refuse l'idée que ces individus soient de simples "loups solitaires". Ils font plutôt partie d'un "écosystème numérique" en plein développement, évoquant les actes de vandalisme contre des véhicules Tesla qui ont eu lieu sans coordination apparente.
La menace à prendre au sérieux
Les grandes figures de l'IA prennent ces menaces très au sérieux, comme le souligne Rory Moran, responsable de la sécurité chez USI. Il indique qu'il y a eu récemment une importante demande pour des mesures de sécurité physique dans les entreprises technologiques. Les incidents récents illustrent cette tendance qui reste en augmentation.
Les attaques physiques contre les leaders technologiques sont devenues un sujet de préoccupation légitime, illustrées par la tragédie liée au meurtre de Brian Thompson, le directeur général de UnitedHealthcare, en décembre 2024. À la suite des événements entourant Altman, un nombre significatif d'internautes ont socialement médiatisé l'attaque en glorifiant l'agresseur.
Un appel à la paix parmi les opposants
Les organisations prônant une régulation de l'IA expriment des craintes de voir leur message pacifique confondu avec ces violences. Dean Ball, ancien conseiller sur l'IA, fait état de cette escalade qui semble de plus en plus liée aux discours de ce mouvement sur les risque associés à l'IA.
Valerie Sizemore, co-responsable de Stop AI, indique que la violence ne résout rien, exhortant à des actions non violentes pour faire entendre ces préoccupations. La communauté continue d’appeler à un moratoire sur le développement de l'IA, favorisant un dialogue constructif sur les régulations à mettre en place.
En résumé, cette violence, farouchement condamnée par de nombreux experts et militants, pourrait remettre en question le sentiment de sécurité des figures de l'IA, tout en soulevant des interrogations sur la capacité de la société à dialoguer autour de ces enjeux cruciaux sans violence.







