Impact des compagnons virtuels sur les jeunes hommes
Eric Schmidt, ancien PDG de Google, a récemment exprimé ses préoccupations concernant l’évolution des technologies d’intelligence artificielle générative, telles que les applications de compagnons virtuels, et leur potentiel impact sur la radicalisation. Ces compagnons, souvent utilisés par de jeunes hommes souffrant de solitude, pourraient approfondir des sentiments de désespoir. Cette situation coïncide avec le constat que les opportunités de succès semblent se réduire pour les jeunes hommes, tandis que les femmes, plus éduquées, représentent une plus grande part des diplômés universitaires. Une étude du Pew Research Center a révélé que 47 % des femmes américaines âgées de 25 à 34 ans possèdent un diplôme universitaire contre 37 % des hommes.
Les compagnons virtuels, conçus pour imiter des relations humaines, offrent une interaction simulateur sans jugement, qui, bien qu’intemporelle, renforce parfois l’isolement. Schmidt avertit que ces relations virtuelles, bien que potentiellement bénéfiques à court terme, pourraient ralentir la croissance émotionnelle et la résilience en perpétuant une forme d’obsession pour une perfection chimérique. Les jeunes utilisateurs, en particulier, sont à risque car ils pourraient attribuer des qualités humaines à ces IA, ignorant leurs limitations. Ce phénomène pourrait altérer leur perception des relations dans la réalité, limitant ainsi leur motivation à engager de véritables interactions humaines.
Problèmes légaux et appelle à la régulation
La montée en popularité des compagnons virtuels a attiré une attention croissante sur l’industrie, illustrant des cas controversés. Un exemple notable est un jeune homme en Angleterre, dont le projet présumé d’assassinat était encouragé par son compagnon IA. En réponse aux inquiétudes croissantes, Schmidt souligne la nécessité de discussions sociétales pour déterminer des âges appropriés pour l’utilisation de ces technologies et plaide pour une révision des lois existantes telles que la Section 230 du Communications Decency Act. Cette législation actuelle empêche les plateformes en ligne de responsabilité civile relative au contenu de tiers, rendant complex l’établissement de limites de responsabilité en cas de tragédies liées à de mauvaises influences des IA.
La mise en œuvre de normes plus strictes, comme celles récemment introduites par le développeur de Character AI, pourrait être une réponse partielle aux tragédies liées aux interactions avec ces entités virtuelles. Ces événements soulignent la complexité des interactions entre les jeunes utilisateurs et les technologies avancées, ainsi que la nécessité de repenser notre approche légale et sociétale face à l’impact potentiel de ces technologies sur la société.