Entretien de Bastien Kerspern
Entretien mené le 23 avril 2025 par Flora Brochier et Antoine Bosque.
Le projet d’exploration
Nous nous interrogeons sur la relation entre santé mentale et services numériques.
Nous explorons aussi l’idée de créer des outils pour les designers, qui pourraient les aider, par exemple, au diagnostic, ou à la projection d'impacts.
Bastien Kerspern

Bastien Kerspern est co-fondateur de Design Friction et spécialiste du design fiction appliqué au champ public.
Nous sommes allés à la rencontre de Bastien pour son expérience de design fiction (entre autres créations d’outils permettant d’aider au diagnostic) et son travail autour de la notion de média.
Nous vous proposons ici une retranscription retravaillée de cet entretien de 80 minutes.
Bonne lecture !
Que penses-tu du lien entre médias sociaux et problèmes de santé mentale ?
J'aime utiliser le terme de Bernard Stiegler qui parle du numérique comme un « pharmakon » : à la fois un remède et un poison. C'est un angle essentiel pour aborder ce sujet.
Si on regarde d’un point de vue des médias sociaux, initialement, on pourrait dire que ceux-ci nuisent à la santé mentale, ce qui est en partie vrai. Cependant, la mission première de ces plateformes est à la base de lier les gens, ce qui peut être bénéfique, car l'isolement nuit à la santé. Tout dépend donc du type de lien et d'interaction.
Malgré des impacts positifs, la tendance actuelle me semble plutôt négative en raison de la manipulation de l'attention (qui peut être à la fois l’attention et être attentionné). Les réseaux sociaux cherchent à créer du "clash" pour générer de l'engagement et donc de la publicité. Et plus largement, ces plateformes cherchent à explorer, tout ce qui est vu comme du “temps de cerveau disponible”.
Mais en même temps, de belles rencontres sont possibles via ces réseaux, permettant de lutter contre l’isolement. Les personnes peuvent se rencontrer, échanger sur leurs passions ou leurs intérêts communs, même s’ils sont éloignés géographiquement.
Connais-tu des éléments existants (outils, méthodologies...) permettant aux designers de gérer les impacts négatifs et positifs sur la santé mentale dans leurs conceptions ?
L'aspect de la santé mentale, voire du fonctionnement psychologique, est le « parent pauvre » de la conception centrée utilisateur.
En tant que designers, on a tendance à se concentrer sur les besoins consuméristes avec les personas (qui essayent de synthétiser les attentes subjectives et fonctionnelles), les "pain points" (visions raccourcies de et abstraites de la complexité de ce que peut vivre une personne dans une expérience), et autres outils. Mais, on se concentre rarement sur la dimension psychologique. C'est-à-dire, se demander qu'est-ce que notre service, site, application va générer effectivement comme impact psychologique à court terme, lors de l'utilisation du service. Et plus largement, en dehors de l'utilisation du service, quels effets “longue traîne” peuvent continuer d’impacter la santé mentale et le bien-être psychologique de la personne au-delà de l'expérience sur le moment.
C’est un problème de la conception centrée utilisateur : on ne voit les gens que comme des utilisateurs, alors qu’ils ne sont, bien souvent, utilisateurs qu'une heure par jour. On oublie ce que nos conceptions peuvent créer en dehors de l’expérience du service et même sur la vie des non-utilisateurs. Ce qui nous empêche de nous demander dans quel état psychologique ils seront, quand on va leur proposer le service, voire concevoir le service avec ces personnes-là.
Un point crucial souvent oublié, en tant que concepteur, est celui de notre propre impact psychologique ?
Effectivement, il faut commencer par se regarder soi-même et se demander “Ok, dans quel état psychologique suis-je ? Qu'est-ce que je vais transmettre comme névrose à travers mon service ? Et puis, surtout, mon mode de conception, à quel point il m'impacte déjà moi-même, et, par extension, va impacter l'utilisateur ?”
Prenons l’exemple du "crunch" dans le jeu vidéo. Il s’agit d’une pratique où les développeurs travaillent une centaine d’heures par semaine au nom de la passion avec de la pression psychologique tout en étant payé le prix de 40 heures semaine. Un cas emblématique de “crunch” c’est passé dans le cadre du jeu Red Dead Redemption 2. Les femmes de développeurs sont venues faire le pied de grue devant l’entreprise pour demander que leur maris rentrent, parce qu'ils n'étaient pas rentrés à la maison depuis plusieurs jours.
On ne peut pas réaliser des conceptions qui prennent soin des gens, sans prendre soin de soi d’abord. Dans cette perspective, il est essentiel d'intégrer un moment de réflexivité sur la façon dont nos conceptions et les processus de conception vont nous impacter psychologiquement ainsi que les autres parties-prenantes. Comment celui-ci nous met dans de bonnes conditions psychologiques et mentales pour pouvoir prendre soin de soi et des autres.
C'est un angle mort aujourd'hui, parce qu'on a assez peu d'agentivité en tant que designer, sur notamment les processus, à cause des nombreuses variables qui impactent nos façons de faire. De plus, l’aspect de santé mentale est souvent écarté, étant intangible et sans retour sur investissement évident.
Je discutais de la question de l’agentivité des designers avec ma collègue Estelle Hary (co-fondatrice de Design Friction, qui fait sa thèse sur l’explicabilité et la transparence des algorithmes publics et des systèmes d'intelligence artificielle dans le champ public). On se questionne si à la place de créer des outils de médiation sur qu’est-ce que l’IA, il ne faudrait pas mieux faire des outils de médiation auprès des concepteurs, notamment ceux qui créent ces outils. Cela leur permettrait de faire leur propre « check-up » personnel : quels sont nos marges de manœuvre, nos influences, nos aprioris, est-ce que nos outils habituels s'adaptent à l'enjeu de conception, et comment je cartographie ce que je peux faire à mon échelle afin de m'inscrire dans l'environnement de développement de ces systèmes intelligents. Il y a peut être aussi quelque chose de similaire à imaginer d’un point de vue du bien être psychologique : Où est-ce que je me situe sur ces questions de santé mentale à titre personnel, mais aussi en tant que professionnel, et à quel point j'inclus cette dimension dans mes outils.
Si nous ne sommes pas convaincus de l'importance de notre propre santé mentale, nous ne la prendrons pas en compte pour les autres.
Quel pourrait être l’impact de l’IA sur cette problématique du design et de la santé mentale ?
L’IA est aussi un « pharmakon », c'est-à-dire le poison et le remède.
Si l’on prend cette question par le prisme du design fiction, c'est-à-dire se projeter dans les cas possibles dans 10, 15 ou 20 ans.. Pour cela on va créer des services et produits fictionnels qui nous viennent d’un futur pas si lointain, en essayant de voir quelles sont les implications éthiques que des transformations socio-techniques peuvent soulever.
L’IA un outil de “care”.
Donc, avec ce prisme, l’IA peut être un outil de « care », comme Eliza, une des premières IA conversationnelles, un proto-chatbot de 1964 qui simulait un psychologue en reformulant les dires de l'utilisateur. Cela a donné l’impression d’avoir un système totalement empathique, alors qu’il s’agissait juste d’un algorithme.
Un jeu a été adapté de cette IA, il s’agissait de Eliza (Zachtronics, 2019), qui met en scène l'ubérisation de la santé mentale via des IA. Dans le jeu, on incarne une assistante-psy, dans un cabinet qui est une sorte de gig-worker à la Uber. On se trouve dans notre cabine intelligente, on va recevoir des gens en consultation, et on doit répéter ce que la machine nous dit. L’IA analyse l'état émotionnel de la personne, essaye de fournir des questions pour interroger sa psyché. Vient alors le twist intéressant et terrifiant du jeu : plutôt que ce soit la machine qui fasse tout elle-même, on voit qu'il faut un proxy humain pour faire l'intermédiaire, interroger le patient et donner les résultats de la machine à haute voix, car mieux reçu, plus empathique. Et donc, le joueur doit suivre les directions qui sont données par la machine, pour faire des séances de psy aux différents personnages du jeu qui défilent devant nous. Et au fur et à mesure on peut commencer à décider de dévier du script qui nous est imposé ou non.
Pour résumer, on peut peut-être faire quelque chose d’intéressant de l’IA, en le prenant sous l'angle du care. C'est-à-dire une espèce de pré-consultation, ou de premier accompagnement, car il est parfois plus facile de se confier à une machine qu'à une personne.
L’IA un outil de guerre cognitive.
En gardant ce prisme, l'IA pourrait aussi être utilisée comme une « arme de guerre cognitive », visant à saper l'attention et le moral, à créer et entretenir des sentiments négatifs dans le but de générer de l'handicap cognitif augmenté par l'IA.
Exemples de Design Fiction.
Pour prendre des exemples concrets, au sein de Design Friction, on a travaillé cette interaction entre numérique et santé mentale via principalement le design fiction et les scénarios spéculatifs.
Le premier exemple n’est pas directement lié à l’IA, mais il s’y applique bien. En 2015, on a travaillé avec une démarche de design fiction, sur un scénario qui s’appelait Smart Object Therapist (lien vers le projet). Il s’agit d’un faux métier, le thérapeute des objets intelligents, qui grâce à des formes de conciliation, réconcilie les personnes âgées avec leur maison intelligente dans le but de recréer de la confiance. Ce projet se place dans le contexte britannique où les lois allaient être votées pour promouvoir le vieillissement à domicile. Et l’environnement connecté et intelligent, une smart home, était un des moyens pour laisser les personnes âgées vivre dans un environnement familier. Dans cet exemple, ce n’est pas l'IA qui est directement thérapeute, mais on a besoin d'une personne médiatrice et conciliatrice pour accompagner l’adoption et l’appropriation du système intelligent, en retissant de la compréhension et de la confiance entre l’humain et la machine. C’est une des façons dont on a abordé les systèmes intelligents et la santé mentale.
Un autre exemple était un scénario de design fiction imaginé pour le Festival de l’Info Locale (festival qui s’adressait principalement à des journalistes et des médias sociaux) organisé par Ouest Médialab. Pour ce projet, nous nous sommes questionnés sur quels seraient les futurs “souhaitables” de l’information locale et que se passe-t-il si dans un de ces futurs on croisait démocratie locale et santé mentale ? Cela a donné Démocare (lien vers le projet) où l’on met la logique au centre du fonctionnement démocratique. En 2033, on aurait de nouvelles plateformes d’échange qui apparaissent où l’on va accepter de venir faire challenger son opinion (équivalent généralisé de la fonctionnalité “Change My View” sur Reddit). Donc, ici, à l'échelle d’une démocratie locale animée par des médias, l'IA sert notamment un peu de garde-fou aux échanges entre citoyens (reformulation, aide à la modération, suivi de l’impact émotionnel des informations lues).
Cette option de suivi de la réception d’une information et de son impact émotionnel et psychologique avait été travaillée de manière plus opérationnelle dans un autre de nos projets pour France Télévisions. Le concept imaginé était un “Tamagochi de l’info”, un jeu où l'émotion est aussi importante que l’information. Dans ce concept, après chaque actualité lue, on nous demande comment l’on se sent par rapport à cette actualité et cela impact notre avatar. Suivant l’état émotionnel ressenti, un jeu est proposé permettant d’agir sur son ressenti et ses émotions afin d’arriver à une fin d’expérience apaisante.
La notion essentielle de “care”.
Je pense que cet esprit de “care” on peut l’appliquer au design numérique en tant que principes de conception au-delà de l'IA. Au-delà d’être des design fictions, ces idées sont peut-être des choses qu'on peut envisager concrètement dans le parcours utilisateur, de se dire en tant que designer d’un service d’information : “je fais le suivi de ce que ça a déclenché, volontairement ou involontairement, pour ne pas laisser la personne toute seule face à son écran, éventuellement à un niveau d'émotion ou d'impact sur sa santé mentale, que je ne lui souhaitais pas, initialement”.
Les IAs “opportunistes”.
Un risque important de l’IA sur cette problématique seraient les IA “opportunistes”, qui profiteraient de la détection d’un état émotionnel ou psychologique fragile d’une personne pour faire du scam, pousser à un comportement d’achat ou autre. L'affaire d'Anne avec le faux Brad Pitt ou les appels avec la voix deepfake d'un proche sont des exemples alarmants de cette exploitation de la fragilité émotionnelle.
C’est pourquoi, il n’est pas impossible qu'un autre pan du design numérique appliqué à la santé mentale, soit pour une optimisation ou une automatisation de la détection des personnes vulnérables afin de les exploiter derrière, via des offres peu recommandables, ou des arnaques personnalisées.
Un de nos projets de 2019 pour un concours de design, Futur of Money Awards, où il fallait imaginer des crimes spéculatifs : quels futurs pour le crime en col blanc, pour les délits financiers, était une version augmentée de ce qu’on appelle “l'arnaque au président”. Notre crime fictionnel reposait sur l’usage de l’IA pour automatiser l’identification d’organisations vulnérables et la création de deepfakes usurpant l’identité d’un décideur afin d’extorquer de l’argent ou des données (Llien vers le projet Augmented CEO Fraud) via des deepfakes. Cette arnaque marche très bien aujourd'hui, mais c’était encore de la fiction en 2019.
Connais-tu des projets ou expérimentations qui détectent le niveau de vulnérabilité psychologique d'utilisateur ?
Un exemple d’un projet à la limite du réel est 6andMe (découvrir le projet), de 2015, par Fabien Girardin et Nicolas Nova du Near Future Lab (pionniers du design fiction). 6andMe propose de passer au crible vos réseaux sociaux, pour détecter quelle nouvelle maladie numérique, ou affliction mentale numérique, vous allez peut-être développer. En d’autres termes, c'est quoi le futur FOMO (Fear of Missing Out : cette forme d'anxiété propre aux réseaux sociaux caractérisés par la peur constante de manquer une nouvelle importante ou un évènement donnant une occasion d'interagir socialement) ? Pour cela ils avaient spéculé sur des maladies, troubles mentaux et pathologies psychologiques qu'on pourrait développer (en partant par exemple, d’être trop présents ou “accrocs” aux réseaux sociaux). Ce service fictionnel proposerait de passer notre vie numérique au filtre de ce diagnostic des nouveaux maux du numérique, et mettrait en avant quelle pathologie nous pourrions être susceptibles de développer par rapport à notre rapport à ces médias sociaux. Ça a beau être du design fiction, en vrai, il n’est pas impossible que, demain, un tel service puisse devenir une vraie offre d’accompagnement, pour le meilleur comme pour le pire.
Le projet fait une référence à 23andMe (https://www.23andme.com/ service qui a fermé), qui était une start-up existante, qui proposait de trouver ses origines en faisant un test ADN, ainsi que de la détection de maladies possibles. Celle-ci tient du “pire”, parce qu’entre-temps, la startup a fait faillite et les données génétiques de tout le monde pourraient être mises en vente (enjeu de privacy sur ce que deviennent les données génétiques collectées - lire l’article).
Sur le principe du diagnostic en ligne de notre rapport aux réseaux sociaux et autres assistants intelligents, ce n'est pas inintéressant, même si c'est quand même paradoxal d’avoir recours au numérique pour ça.
Quels seraient selon toi, les futurs troubles liés à la santé mentale ?
La fatigue émotionnelle
Il y en a un qui est déjà bien ancré, à mon avis, et qui va devenir encore plus un sujet dans les années à venir : la question de la fatigue informationnelle (la saturation de notre capacité à absorber de l’information).
La startup Artifact (créée par des anciens d’Instagram qui s’est plantée entre-temps) proposait une fonctionnalité d’agrégateur de news qui agrège des articles de presse à lire et les réécrits, grâce à l’IA, pour que les titres soient moins anxiogènes ou résoudre la pratique du clickbating (article sur le sujet). Plutôt que d'avoir un titre aguicheur et un peu en suspens qui me force à lire l’article, le résumé généré par l'IA inscrivait la réponse directement dans le titre de l’article. Dans les faits, j'avais déjà la réponse que j'aurais été chercher, et du coup, je lis l'article si je le souhaite ou pas. L'idée était de préserver la santé mentale en évitant de s’exposer à une exploitation abusive de notre attention. Selon moi, c’est un usage pas trop déconnant, ni pas trop visible non plus de l'IA, même si d'un point de vue journalistique, ça pose beaucoup de questions, parce qu'on a un système autonome qui réécrit par-dessus notre contenu.
La guerre cognitive
Je suis aussi très curieux de voir, du côté militaire, ce qui se passe, sur l'aspect guerre cognitive. Autrement dit, comment, grâce aux technologies numériques, est-ce que tu manipules les sens, la réflexion, l'attention des gens, par de la sursollicitation informationnelle, ou par la création de formes d'anxiété. Sachant qu'il y a des choses intrigantes déjà explorées par les plateformes sociales, notamment, sur la capacité à laisser des gens dans un système de récompense permanent, stimulé par des contenus qui leur sont poussés en continu, et où tu as une incapacité à te concentrer plus de 30 secondes. Si tu as une population d’un pays qui n'est pas capable de se concentrer plus de 30 secondes, tu ne vas pas rester longtemps un État puissant, que ce soit au plan militaire, économique, technologique, ou autre. Je trouve que cette approche d’arsenalisation (weaponization) du numérique peut faire partie des phénomènes à suivre pour s’interroger sur l’impact du numérique sur notre santé mentale. C'est déjà un peu le cas aujourd'hui, mais on n'a pas assez de recul sur ce que va être l'impact à long terme d'une génération Tik Tok. Frances Haugen, whistleblower chez Meta en 2021, déclarait que les manipulations algorithmiques que fait notamment Instagram, chez les jeunes filles, généraient des complexes, des troubles anxieux et jusqu’à des envies suicidaires. Et ce à cause de l'exposition à des visions de corps trop parfaits et à des moments de vie qui ne correspondaient pas à la réalité, etc. Et donc, un nombre important de jeunes filles avaient développé des troubles anxieux et des tentations suicidaires (“13,5 % des adolescentes britanniques ont déclaré qu'Instagram aggravait leurs pensées suicidaires. Une autre étude a révélé que 17 % des adolescentes déclarent que leurs troubles alimentaires se sont aggravés après l'utilisation d'Instagram.” lien vers l'article).
Les identités personnelles
Il pourrait également y avoir l’angle des identités personnelles et de genres, à creuser pour aborder l’impact psychologique du numérique. Par exemple, sur la question du partage entre plusieurs identités, et sans aller sur des questions de troubles dissociatifs ou autres, il y a un enjeu d’équilibre mental avec la gestion de ces identités. Ce que l’utilisateur montre en public et ce qu' il montre en privé. Comment est-ce que tu jongles avec ces différentes “persona” ? Quel stress, quelle anxiété, cela peut générer ?
Il y a également le phénomène du “social cooling” (ou refroidissement social), qui avait été identifié sur Facebook au milieu des années 2010. A savoir : “je ne poste plus certains messages ou moments de vie dans une forme d'autocensure pour travailler mon image personnelle”.
Le sentiment d’hubris
Notre exposition personnelle en ligne peut aussi nous amener à une sorte de sentiment d’hubris, parce que tu es dans une bulle qui ne va que dans ton sens. Peut-être que, demain, ce seront des IA qui renforceront ce sentiment d’être unique, parce qu’Internet comprendra plus d'agents synthétiques que d'humains. Ce sentiment de toute-puissance, c’est typiquement ce que renforcent les IA génératives et conversationnelles actuelles, comme ChatGPT.
Mais si demain, on vit que, dans ce monde de confirmation et de réconfort par la machine, est-ce que ça crée et renforce une espèce de sentiment d'hubris qui serait une forme de trouble de mégalomanie ? Parce qu'aujourd'hui, on n'a que des systèmes numériques qui sont conçus sans friction, avec des expériences utilisateur, qui sont pensés que pour nous mettre au centre en tant qu'humains, utilisateurs et consommateurs qui est le roi. Et vu qu'il n'y a rien qui se met dans notre passage, on commence un peu à agir comme des enfants gâtés, qui deviennent contrariés dès qu'il y a la moindre problématique d’usage qui peut se poser dans une expérience ou une interaction numérique. Parce qu'on a été habitué à ces parcours numériques et parce que ces agents intelligents nous enlèvent toutes les frictions et contradictions.
La confidentialité du cerveau
Une autre piste, si on fait vraiment de la prospective (et je n’ai pas trop creusé le sujet), mais la trajectoire sociotechno pourrait nous amener vers la notion de neuro-privacy, qui pose la question de la confidentialité du cerveau. Dans un futur possible, il va y avoir la tentation de proposer des implants (avec des entreprises comme Neuralink). Cela va poser des questions sur comment est-ce que je protège la façon dont mon cerveau fonctionne, que ce soit mes biais, que ce soit mes troubles psy ou mes neurodivergences, où que ce soit la manière dont je pense?
Une expérimentation a été réalisée, où ils ont mis un casque électroencéphalogramme à des personnes, et ils leur ont demandé de penser à une image. Via des IRM, l'IA, sur la base de ces signes électriques, était capable de reconstituer l'image à laquelle la personne pensait. Donc, en fait, pour la faire très rapidement, on “lisait les pensées des gens”.
Donc, demain, si on est capable de “lire mes pensées”, d'où la notion de neuro-privacy, qu'est-ce que ça va me créer en plus comme trouble possible derrière ? Est-ce que je vais devoir penser en permanence contre moi-même, parce que je n’ai pas envie que les gens lisent ce que je pense vraiment ? Donc, on en viendrait à une sorte de dissonance cognitive extrême, à en faire perdre la raison. Comment est-ce que je protège mes troubles psychiques ou mentaux ? Ou même ma neuro-divergence ? Comment est-ce que je préserve éventuellement ces éléments qui me sont personnels ? Parce que je n'ai pas envie que mes spécificités et vulnérabilités soient mises sur la place publique, au risque que des systèmes soient capables de lire ça à travers moi.
Le think tank Nesta, au Royaume-Uni, a notamment fait un article sur la question de neuro-privacy (lire l’article).
Si on prend la question de remettre les êtres vivants (pas que les êtres humains) au centre, à quoi ça te fait penser ?
Je maitrise peu le sujet, mais il y a la notion de “One Health”, selon une logique d’ensemble, avec l’impératif que tu dois tendre vers une santé globale, incluant le vivant, l'humain, l'environnement, les écosystèmes, contrairement au système de santé qu'on a aujourd'hui, qui est très porté sur l'humain avant tout. Dans cette idée de “One health”, est-ce que d'une manière ou d'une autre, les technologies numériques peuvent servir d'intermédiation, de médiation avec le reste du vivant non-humain - végétaux, animaux, microbiotes, pour, justement, nous connecter aux autres espèces qui sont incontournables pour maintenir un bon niveau de santé ? L'IPBES, qui est l’équivalent du GIEC pour la biodiversité, a sorti un rapport montrant que la santé physique et mentale s'améliorait si on est à une centaine de mètres d’espaces naturels : il y a une corrélation entre notre lien direct avec la nature et aux vivants, végétaux et animaux, et notre santé mentale.
Et donc est-ce que, d'une manière ou d'une autre, ces services numériques pourraient être prescripteurs de cette santé globale, dans l’esprit “One Health” ? Pouvons-nous prescrire une dose de nature, parce que “là ça ne va pas”, ou “qu'on est sur une mauvaise pente” ? Et ce, même si là on est dans une vision utilitariste de la nature, qui poserait d'autres questions éthiques. Ou alors est-ce que c'est une forme de médiation ? C'est-à-dire de comprendre aussi que la santé de la nature, c’est s’inscrire dans une logique de care, qui faisant amène à prendre soin des autres : “ je prends soin de moi, et par cet acte de soin, je vais mieux moi-même”. Ce qui amènerait à se dire que préserver la santé mentale et physique, ce n'est pas que s’intéresser à l'autre humain, mais c'est aussi se pencher sur le reste du vivant.
Il y a également des "appcebo" (applications placebo) qui nous feraient croire que nous faisons quelque chose et que ce quelque chose à un effet positif.
Il y a peut-être un truc à creuser de ce point de vue là. En se disant qu'on est dans une santé écosystémique. On ne peut pas juste prendre soin de l'espèce humaine, on doit prendre soin de toutes les espèces. Cela a, en plus, un impact positif en retour sur notre santé mentale. Et du coup, c'est quoi la place du service numérique là-dedans ? Et comment est-ce qu'on construit des services numériques qui sont centrés sur tous les vivants plutôt que centrés sur les utilisateurs pour être dans cette logique “One Health” qui permet à tout le vivant d’aller bien ?
Est-ce que tu vois des outils permettant aux designers d’imaginer les potentielles dérives d'un projet de design ?
Il y a la notion de crash test qui est particulièrement appréciée. Tu prends un produit, un service et tu le projettes dans le “mur des futurs”. Ça permet de voir ce qui casse et ce qui tient. Tu vas aller chercher les angles morts en spéculant sur des impacts possibles, des mésusages, des détournements d'usages, des non-usages et tu essayes de voir quel impact ça pourrait avoir sur tes utilisateurs, sur le reste de la communauté, sur le reste de la société. C’est ce que l’on appelle du “future proofing”, (c’est à dire est-ce que ta proposition de service ou produit numérique est à l'épreuve des futurs) et en retour, selon ce que tu as pu identifier sur les dérives possibles, ou opportunités, tu ajustes.
L’approche User Centred peut concevoir des solutions "incroyables" pour l'utilisateur, mais "dégueulasses" d'un point de vue sociétal, comme Uber (parcours dans friction, intuitif, mais un modèle social très questionnable). L’approche systémique permettrait d’avoir une approche centrée sur la communauté.
Un shift que l’on devrait avoir lorsqu'on aborde la question de la santé mentale à travers le design de produits numériques, serait d'utiliser des approches de design non pas pour répondre aux problématiques ("problem-solving"), mais pour mieux les comprendre ("problem-finding" avec la découverte et compréhension d’un problème ou de "problem-framing" problématisation). Comment est-ce que, en tant que designer, je cadre, je trouve et je comprends mon problème par des méthodes de design - comme le design systémique - pour visualiser quelles sont toutes les ramifications, avant éventuellement de me lancer dans la production d'une application, d’un service, d’un jeu ou service numérique.
Une piste d’outil serait de m’aider en tant que designer à évaluer à quel point je vais spontanément utiliser des méthodes qui ont un impact, “négatif” sur la santé mentale de mes utilisateurs, alors que je les utilise sans me poser la question, notamment parce que c'est comme ça qu'on fait aujourd'hui. Au-delà du dark pattern, est-ce qu'il y a des habitudes ou des pratiques qui sont trop ancrées sur la méthode centrée utilisateur et qui en oublie les non-utilisateurs et le reste du vivant ? Est-ce qu'il n'y a pas des schémas délétères que j'ai intégrés dans mes méthodes, dans mes outils, où je me dis “non mais ce n'est pas grave, non mais c'est bien, parce que ça répond aux besoins”, alors qu'en réalité je crée 15 problèmes derrière ? Et, aussi important, comment est-ce que je peux analyser mes outils que je pense être vertueux et bénéfiques ?
Que peut faire un designer pour résister ?
Est-ce que tu peux avoir de l'objection de conscience dans le métier de designer ? En d’autres termes, adopter une posture qui serait acceptée par l’organisation et qui dirait en substance : “Là, vous me demandez de faire quelque chose, mais je ne peux pas le faire. Parce que ça va à l'encontre de mon éthique, donc je refuse de le faire. Mettez-moi sur n'importe quelle autre mission, mais pas celle-ci”.
Pour ma part, je traite cet équilibre et sorte d’objection en partie dans mes fictions et en choisissant nos clients. Pour autant, qu'est-ce qu'on peut faire concrètement quand on n’a pas ce luxe ?
Une option, on peut faire du sabotage. Est-ce que ton rôle en tant que designer, ce n’est pas de saboter sciemment le projet. Par sabotage, on peut se dire que tu vas faire en sorte que le produit se plante, voire qu'il ne sorte pas. Tu le fais de manière discrète en faisant mal ton travail de designer.
Ou alors, si tu estimes que t'as suffisamment d'agentivité pour essayer de redresser la barre, rediriger le process, et du coup, te faire l'avocat de la santé mentale de l'utilisateur (parce qu’en tant que designer tu es “garant” des besoins utilisateurs et de leur bien-être tout au long du process).
Après, tu as toujours la démission, la tentative d'objection de conscience, etc.
Autre option, tu peux faire du whistleblowing (lancer l’alerte). Comme Frances Haugen chez Meta, en divulguant des informations sur les impacts négatifs du produit. Avec pour objectif que la pression venant de l’externe puisse faire changer les choses.
Sinon, pour des designers qui sont extérieurs à l'organisation (prestataires comme des agences, freelances), la question se pose différemment. Est-ce que tu as moyen de proposer des outils qui conscientisent ou sensibilisent à cette question de la santé mentale auprès du client et de ses équipes de designers ou de développeurs ? Ou est-ce que c’est un engagement que tu mènes sur ton temps personnel, grâce à tes compétences professionnelles ? Ça demande à chaque designer de trouver son équilibre : plus ou moins dans la médiation, plus ou moins dans la sensibilisation. Selon moi ce sont différents rôles que tu peux aussi avoir comme designer sur ces questions systémiques, comme celle de la santé mentale.
Est-ce que tu as d’autres éléments à partager ?
Nous avons travaillé sur un projet pour la CNIL appelé le « numérique intermittent » (lien vers le projet). Le concept fictionnel qui s'appelait « la balance socio-écologique du numérique », l'idée était de dire que demain, on a un Internet dont l’accès est intermittent (c'est-à-dire que des fois, il y a Internet, et des fois, il n'y a pas Internet). Et la conditionnalité de l'accès à Internet repose sur le fait que notre balance socionumérique soit à l'équilibre, entre ce que l’accès aux contenus en ligne pèse sur l'écologie et ce que ça pèse sur la société. Si Internet et les services numériques amènent à trop de polarisation de la société, ou ont un impact trop négatif sur la santé mentale, par exemple, alors on coupe Internet pendant une durée donnée ou alors on en dégrade la qualité. Par exemple, l’accès à Internet disponible une heure par jour, car on diminue l'accessibilité à Internet parce que son impact sociétal est trop important. Et même chose pour l'écologie. Par exemple : “Ok, là, c'est énergétiquement parlant ou en termes de ressources, c'est trop pesant”, donc, on dégrade l’accès à Internet. Avec du coup, une espèce de contrôle par le peuple ou par l'État par solution de facilité. Mais ça pourrait être aussi un organisme indépendant ou quoi que ce soit.
Il y a également le projet “Data Funerals” que nous avions porté chez Design friction. Il s’agit de rituels funéraires spéculatifs pour faire le deuil de sa perte de données personnelles et surmonter l’impact psychologique de la disparition d’une part de son soi numérique (accéder au projet).
Crédits
Retranscription et éditorialisation réalisée par Flora Brochier.
Relecture et correction réalisées par Bastien Kerspern, Antoine Bosque et Flora Brochier.