30 secondes : le temps qu’il faut pour que votre indignation ne survive pas à un chat qui danse

Plaidoyer pour un bouton grisé sur les réseaux sociaux

Imaginez un dispositif d'une banalité confondante : lorsqu'un contenu apparaît sur votre écran, le bouton « partager » reste grisé, inactif, pendant 30 secondes. Pas de décompte spectaculaire, pas de pop-up moralisateur. Simplement un bouton qui ne répond pas. Trente secondes. Le temps de nouer ses lacets, de lire un paragraphe, de reprendre son souffle après un effort. Une éternité à l'échelle des réseaux sociaux. Et peut-être, une révolution cognitive silencieuse…

Cette proposition, qui pourrait figurer dans un projet de loi sur la régulation numérique, n'a rien d'une lubie technophobe. Elle repose sur une compréhension fine des mécanismes cérébraux que les plateformes exploitent, et s'appuie sur un corpus scientifique de plus en plus solide. Mieux : elle pourrait se révéler redoutablement efficace, précisément parce qu'elle entrerait en conflit direct avec la mécanique addictive du scroll. Car la clef de cette proposition ne réside pas dans le délai lui-même, mais dans ce que l'utilisateur fait pendant ce délai : il scrolle. Et devinez quoi, une fois qu'il a scrollé, il ne revient plus.

Le pouce infatigable

Commençons par une image. Selon les estimations de Fasthosts, fondées sur les données Statista, un utilisateur moyen parcourt environ 390 mètres par jour avec son pouce sur l'écran de son smartphone, soit près de 142 kilomètres par an. D'autres calculs, comme ceux du chercheur indépendant Alan Qin, aboutissent à environ 22 mètres par jour de texte sur un iPhone à écran de 6 pouces, ce qui représente, extrapolé sur l'année, entre 5 et 8 kilomètres de contenu défilé. En 2024, l'étude de TollFreeForwarding.com estime même que l'Américain moyen scrolle l'équivalent de 86 miles (près de 140 km) par an.

Les chiffres varient selon les méthodes de calcul, la taille des écrans et les habitudes individuelles. Mais c’est l'ordre de grandeur qui est saisissant : nous parcourons chaque année, du bout du pouce, une distance comparable à celle d'un ultra-marathon. Cette donnée en apparence anecdotique traduit en réalité un phénomène profond : notre corps est physiquement engagé dans un mouvement répétitif dont nous n'avons plus conscience, comme un tic nerveux devenu seconde nature.

En 30 secondes, à la vitesse moyenne de défilement, un utilisateur parcourt entre 5 et 15 contenus selon les plateformes. Sur TikTok, où la session moyenne dure 10,85 minutes et où l'utilisateur ouvre l'application environ 19 fois par jour, ces 30 secondes représentent un gouffre attentionnel que le cerveau ne sait tout simplement pas combler par l'attente.

Sous le capot : la neurochimie de l'immédiateté

Pour comprendre pourquoi 30 secondes constituent un rempart si puissant, il faut descendre au niveau du neurotransmetteur. Le scroll infini active principalement le circuit de la récompense, articulé autour de la voie mésolimbique qui relie l'aire tegmentale ventrale au noyau accumbens. Chaque glissement du pouce déclenche une micro-décharge de dopamine, non pas au moment où l'on trouve un contenu satisfaisant, mais au moment où l'on anticipe la possibilité d'en trouver un. La dopamine n'est pas, contrairement à une idée reçue tenace, le neurotransmetteur du plaisir : c'est le neurotransmetteur de la recherche, de l'anticipation, du « et si le prochain était le bon ».

Ce mécanisme porte un nom en psychologie comportementale : le programme de renforcement à ratio variable. C'est le même principe que celui des machines à sous. La récompense est imprévisible, ce qui la rend irrésistible. L'imagerie par résonance magnétique fonctionnelle (IRMf) le confirme : une étude publiée en 2024 dans Computers in Human Behavior (Wu et al.) a montré, sur 80 participants exposés à des fils d'actualité simulés, une activité dopaminergique accrue de 20 % dans les régions cérébrales liées à la récompense chez les individus anxieux, qui passaient en moyenne 10 secondes par publication négative (contre 7 secondes chez les non-anxieux).

Mais la dopamine n'est pas seule en jeu. L'amygdale, centre de traitement de la peur et des émotions, est également hyperactivée lors du doomscrolling. Lorsqu'un contenu menaçant ou indignant apparaît, l'amygdale déclenche la réponse « combat ou fuite », libérant cortisol et adrénaline. L'utilisateur se retrouve dans un état de vigilance exacerbée qui, paradoxalement, le pousse à scroller davantage pour « surveiller les menaces ». Le Dr Susan Tapert, professeure de psychiatrie à l'UC San Diego, décrit ce phénomène comme un détournement du mécanisme de codage prédictif du cerveau : en état anxieux, le cerveau scanne en permanence l'environnement à la recherche de dangers potentiels, et le fil d'actualité, gorgé de contenus émotionnellement chargés, répond parfaitement à cette vigilance.

Plus préoccupant encore : une étude par tomographie à émission de positons (TEP) utilisant le marqueur [18F]-DOPA a révélé que les individus qui passaient une proportion plus importante de leur temps téléphonique sur des applications sociales présentaient une capacité de synthèse de la dopamine significativement réduite dans le putamen bilatéral (Westbrook et al., 2021, iScience). La structure même du cerveau se modifie sous l'effet d'une utilisation prolongée, selon un mécanisme de tolérance comparable à celui observé dans les addictions aux substances.

Le partage compulsif : quand l'émotion court-circuite la raison

C'est ici que la proposition des 30 secondes prend tout son sens. Car le partage d'un contenu sur les réseaux sociaux obéit lui aussi à une logique émotionnelle, largement déconnectée de toute évaluation rationnelle.

L'étude fondatrice de Vosoughi, Roy et Aral, publiée en 2018 dans Science, a analysé la diffusion de 126 000 rumeurs sur Twitter entre 2006 et 2017, relayées par 3 millions d'utilisateurs plus de 4,5 millions de fois. Le résultat est sans appel : les informations fausses se diffusent significativement plus loin, plus vite, plus profondément et plus largement que les informations vraies, dans toutes les catégories, et l'effet est encore plus prononcé pour les fausses informations politiques. Les fausses nouvelles ont 70 % de chances supplémentaires d'être retweetées que les vraies, et elles atteignent 1 500 personnes environ six fois plus rapidement.

Le facteur déterminant ? La nouveauté et l'intensité émotionnelle. Les fausses nouvelles étaient perçues comme plus nouvelles et suscitaient des réponses exprimant davantage la surprise, la peur et le dégoût. Ce n'est pas la technologie ni les bots qui expliquent cette différence : lorsque les chercheurs ont retiré les comptes automatisés de leur jeu de données, les résultats sont restés identiques. Ce sont bien les humains qui propagent préférentiellement le faux.

Brady et al. (2017, PNAS) ont apporté une pièce supplémentaire au puzzle, en analysant 563 312 messages portant sur le contrôle des armes, le mariage homosexuel et le changement climatique. Leur découverte est frappante : chaque mot supplémentaire à connotation « morale-émotionnelle » dans un message augmentait sa diffusion de 20 %. Une méta-analyse de réplication, publiée en 2025 dans PNAS Nexus, a confirmé cet effet (désormais estimé à environ 13 % par mot) sur des corpus différents, en utilisant à la fois les méthodes par dictionnaire et les grands modèles de langage. Le phénomène, que les chercheurs nomment « contagion morale », est robuste et généralisable.

En d'autres termes, la viralité n'est pas un accident : c'est le produit d'une alliance entre des contenus calibrés pour provoquer une réaction émotionnelle immédiate et une architecture de partage conçue pour que cette réaction se transforme instantanément en action. Le bouton « partager » est le pont entre l'émotion brute et la propagation virale. Et ce pont, aujourd'hui, ne comporte aucun garde-fou.

Un détail supplémentaire mérite attention : selon une étude de l'Université Columbia et de l'INRIA (2016), 59 % des liens partagés sur les réseaux sociaux n'ont jamais été cliqués par la personne qui les partage. Nous relayons donc massivement des contenus que nous n'avons même pas lus, sur la seule foi d'un titre, d'une image ou d'un commentaire qui a déclenché notre indignation.

Pourquoi 30 secondes, et pas 10 ou 60 ?

La question du calibrage n'est pas anodine. Trop court, le délai serait inopérant : si le bouton s'active au bout de 10 secondes, l'utilisateur est encore probablement sur le même contenu ou très proche, et son intention de partage survit. Trop long, il deviendrait une contrainte disproportionnée, perçue comme une atteinte à la liberté d'expression, et les utilisateurs trouveraient des contournements (capture d'écran, copie du lien vers une autre application).

Trente secondes, en revanche, se situent dans une zone de friction optimale, et voici pourquoi : c'est un délai suffisamment long pour que le mécanisme de scrolling, alimenté par la dopamine, empêche tout simplement l'utilisateur d'être encore là quand le bouton s'active.

Rappelons les données : en 2025, un utilisateur moyen passe 1,7 seconde sur un contenu avant de décider s'il s'y arrête ou s'il poursuit son défilement. L'attention moyenne consacrée à une publication individuelle est descendue à 8,25 secondes. Sur Facebook, la session moyenne est passée de 2,7 minutes en 2013 à 54 secondes en 2025. Les adolescents basculent d'une application à l'autre toutes les 44 secondes.

Dans cet écosystème attentionnel, 30 secondes représentent un fossé cognitif considérable. L'hypothèse, que je développe dans le Petit Traité de Souveraineté Cognitive, est la suivante : face à un bouton grisé, l'utilisateur ne va pas rester immobile en attendant qu'il s'active. Le besoin de scroller, puissamment entretenu par le circuit dopaminergique, est trop impérieux. Le pouce va reprendre sa course. Et au bout de ces 30 secondes, l'utilisateur aura déjà consommé entre 5 et 15 autres contenus. L'information initiale sera loin derrière lui, noyée dans le flux. Le bouton finira par s'activer, mais personne ne sera plus là pour appuyer dessus.

Et c'est là que réside l'élégance du dispositif : l'utilisateur ne revient pas en arrière. Ce mécanisme repose sur ce que les neuroscientifiques appellent l'absence de signal de complétion. Le scroll infini, par conception, ne comporte aucun marqueur de fin. Le cerveau ne reçoit jamais le signal « c'est terminé » qui lui permettrait de se désengager naturellement. Dans cet état de boucle ouverte perpétuelle, remonter le fil pour retrouver un contenu entrevu 30 secondes plus tôt impliquerait un effort cognitif actif, un acte de volonté qui va à contre-courant de l'état de pilotage automatique dans lequel le doomscrolling nous plonge. Certains neuroscientifiques décrivent même cet état comme une forme de dérive vagale dorsale, un pré-stade de dissociation où le corps s'immobilise tandis que le pouce continue sa course.

Le bouton grisé fonctionnerait donc comme un judo cognitif : plutôt que de combattre frontalement l'addiction au scroll (ce que les avertissements et limites de temps peinent à faire), il retournerait cette addiction contre le mécanisme de viralité. Le scroll lui-même deviendrait l'obstacle au partage impulsif. L'ennemi de la désinformation serait, paradoxalement, le compagnon de route du doomscrolling.

La preuve par l'expérimentation : quand Twitter a testé la friction

Cette idée n'est pas purement théorique. En juin 2020, Twitter a lancé une expérimentation : une invite qui demandait aux utilisateurs s'ils souhaitaient lire un article avant de le retweeter, lorsqu'ils n'avaient pas ouvert le lien. Les résultats, publiés en septembre 2020, ont été remarquables : 40 % d'ouvertures d'articles en plus après l'invite, 33 % d'augmentation du nombre d'utilisateurs lisant l'article avant de le retweeter, et un certain nombre d'utilisateurs renonçant purement et simplement au partage après avoir lu le contenu.

La recherche académique converge dans la même direction. Lisa Fazio, de l'Université Vanderbilt, a montré en 2020 (publiée dans Harvard Kennedy School Misinformation Review) que le simple fait de demander à des participants d'expliquer pourquoi un titre leur semblait vrai ou faux réduisait significativement leur intention de partager des informations fausses, sans affecter leur intention de partager des informations vraies. L'effet était plus important pour les titres vus pour la première fois. Une réplication publiée en 2023 dans Collabra: Psychology (Pillai & Fazio) a confirmé ces résultats avec un design intra-sujet plus robuste. Ces travaux fondent ce que les chercheurs appellent les « interventions par friction » (friction interventions), et une perspective publiée en 2025 dans npj Complexity (Nature) consolide cette approche comme prometteuse pour améliorer la qualité de l'information partagée en ligne.

Objections et limites : challenger l'idée

Toute proposition de régulation mérite d'être éprouvée. Voici les objections les plus sérieuses que j'identifie, avec les éléments de réponse disponibles.

« C'est une atteinte à la liberté d'expression. » Le bouton grisé ne supprime ni ne censure aucun contenu. Il ne filtre rien, ne juge pas de la véracité d'une information. Il n'empêche personne de partager : il retarde simplement le moment où le partage devient possible. Cela relève davantage de l'architecture comportementale (nudge) que de la censure. On peut faire l'analogie avec le temps de réflexion imposé pour certaines transactions financières ou avec le délai de rétractation pour un achat en ligne : personne n'y voit une atteinte au droit de propriété ou à la liberté de commerce.

« Les utilisateurs contourneront le dispositif. » C'est probable pour une fraction d'entre eux. Mais l'objectif n'est pas d'éradiquer tout partage impulsif. Il est de réduire massivement le volume de partages émotionnels non réfléchis, c'est-à-dire la grande majorité des cas. Si même 30 à 40 % des partages impulsifs sont empêchés ou découragés (comme le suggère l'expérimentation de Twitter), l'impact sur la viralité des fausses informations serait considérable, les modèles épidémiologiques de propagation informationnelle étant extrêmement sensibles aux variations du taux de reproduction.

« L'effet de nouveauté s'estompera. » C'est le point le plus intéressant. L'étude de Fazio (2020) note effectivement que l'intervention est moins efficace pour les titres déjà vus. On pourrait craindre que les utilisateurs s'habituent au bouton grisé et développent des stratégies de contournement (noter mentalement un contenu pour y revenir, par exemple). Mais ici, la mécanique joue en notre faveur : le dispositif ne repose pas sur un message qu'on finit par ignorer, ni sur la bonne volonté de l'utilisateur. Il repose sur la puissance du scroll lui-même. Tant que le scroll restera addictif, tant que le cerveau sera incapable de résister à l'appel du contenu suivant, le bouton grisé restera efficace. L'habituation ne joue pas de la même façon contre un obstacle qui exploite une addiction que contre un avertissement textuel.

« Cela pénaliserait le partage d'informations urgentes et légitimes. » Cette objection mérite considération. En situation de crise (catastrophe naturelle, attentat), la rapidité de la diffusion d'informations peut sauver des vies. Mais l'expérience montre que ces situations sont aussi celles où la désinformation est la plus virulente et la plus dangereuse. Un bouton qui s'active au bout de 30 secondes est un ralentissement négligeable à l'échelle d'une alerte qui se propage sur plusieurs heures. Et les canaux d'alerte officiels (alertes gouvernementales, notifications d'urgence) ne seraient évidemment pas concernés par ce dispositif. On pourrait même imaginer des exceptions pour les comptes institutionnels ou les médias accrédités.

« Le vrai problème, ce sont les algorithmes, pas les utilisateurs. » C'est en partie vrai. Mais les deux approches ne sont pas mutuellement exclusives. Réguler les algorithmes est nécessaire. Cependant, comme je le soutiens dans le Petit Traité de Souveraineté Cognitive, la clef de voûte de toute stratégie contre la désinformation reste l'individu. Les algorithmes amplifient, mais ce sont des êtres humains qui partagent. L'étude du MIT (Vosoughi et al., 2018) l'a démontré sans ambiguïté : les bots accéléraient la diffusion du vrai et du faux à parts égales. C'est le facteur humain qui fait la différence.

Du STOP au bouton grisé : même combat

Pour ceux qui connaissent le protocole STOP que je propose dans mon ouvrage (Suspendre, Tracer, Observer, Prendre du recul), le bouton grisé apparaîtra comme une forme de STOP mécanisé, inscrit dans l'architecture même de la plateforme. Là où le protocole STOP fait appel à la discipline individuelle pour interrompre le réflexe de partage émotionnel, le bouton inactif impose cette interruption par le design. L'utilisateur n'a pas besoin de « vouloir » suspendre son geste : le système le fait pour lui. Mieux encore, il ne le fait pas en bloquant l'utilisateur (ce qui générerait frustration et contournement) mais en le laissant libre de continuer à scroller, sachant que cette liberté même sera ce qui l'éloignera du contenu à partager. C'est une forme de « douane cognitive » automatisée, pour reprendre la métaphore territoriale du livre.

Bien entendu, un dispositif technique ne remplacera jamais l'éducation cognitive. Les « muscles » de la pensée critique, de l'identification des biais, de la reconnaissance des « cinq déguisements » des monstres informationnels que je décris ne se développent pas par la seule vertu d'un minuteur. Mais ce minuteur pourrait créer les conditions propices à l'exercice de ces muscles, en réintroduisant un espace temporel là où tout conspire à l'éliminer.

Un coût minuscule pour un gain collectif

Résumons l'équation. D'un côté, un coût individuel quasi nul : un bouton qui met 30 secondes à s'activer, dans un contexte où l'utilisateur moyen passe 141 minutes par jour sur les réseaux sociaux et où, de toute façon, il aura scrollé bien au-delà avant même d'y penser. De l'autre, un bénéfice collectif potentiellement considérable : une réduction significative de la viralité des contenus émotionnels non vérifiés, un ralentissement mécanique de la propagation des fausses informations, et une réintroduction, même minimale, du temps de la pensée dans un écosystème conçu pour l'abolir.

La Stratégie nationale de lutte contre les manipulations de l'information adoptée par la France en février 2026 identifie la nécessité de renforcer la résilience individuelle face à la désinformation. Le bouton grisé pourrait constituer l'un des instruments les plus simples, les plus peu intrusifs et les plus élégants de cette boîte à outils. Non pas parce qu'il changerait les esprits, mais parce qu'il exploiterait la mécanique même de l'addiction pour la retourner contre la viralité toxique.

Trente secondes. Le temps que votre pouce parcoure environ 6 à 7 mètres de contenu. Largement assez pour que l'indignation initiale se dissolve dans le flux. Et quand le bouton finira par s'activer, en silence, vous serez déjà loin.

C'est peut-être la meilleure chose qui puisse arriver à notre démocratie.

Guillaume Chillet ©2026 - Reproduction interdite sans accord écrit

Auteur du Petit Traité de Souveraineté Cognitive

Psychologue – www.guillaumechillet.fr

Références scientifiques

Neurosciences et mécanismes addictifs

Westbrook, A., Ghosh, A., van den Bosch, R., et al. (2021). « Striatal dopamine synthesis capacity reflects smartphone social activity. » iScience, 24(5), 102497.

Wu, C. H. et al. (2024). « The Neural Basis of Social Media Engagement: An fMRI Study. » Computers in Human Behavior.

Sharpe, B. T., & Spooner, R. A. (2025). « Dopamine-scrolling: a modern public health challenge requiring urgent attention. » SAGE Journals.

Viralité et désinformation

Vosoughi, S., Roy, D., & Aral, S. (2018). « The spread of true and false news online. » Science, 359(6380), 1146-1151.

Brady, W. J., Wills, J. A., Jost, J. T., Tucker, J. A., & Van Bavel, J. J. (2017). « Emotion shapes the diffusion of moralized content in social networks. » PNAS, 114(28), 7313-7318.

Brady, W. J. et al. (2025). « Estimating the effect size of moral contagion in online networks: A pre-registered replication and meta-analysis. » PNAS Nexus, 4(11).

Interventions par friction

Fazio, L. K. (2020). « Pausing to consider why a headline is true or false can help reduce the sharing of false news. » Harvard Kennedy School Misinformation Review, 1(2).

Pillai, R. M., & Fazio, L. K. (2023). « Explaining why headlines are true or false reduces intentions to share false information. » Collabra: Psychology, 9, 87617.

Jahn, L. & Hendricks, V. F. (2025). « A perspective on friction interventions to curb the spread of misinformation. » npj Complexity (Nature).

Wang, Y., Leon, P. G., Scott, K., Chen, X., Acquisti, A., & Cranor, L. F. (2013). « Privacy nudges for social media: an exploratory Facebook study. » Proceedings of the 22nd International Conference on World Wide Web.

Données d'usage et expérimentations de plateformes

Fasthosts / Statista (2022). Estimation des distances de scroll quotidiennes.

TollFreeForwarding.com (2024). Étude sur les distances de scroll annuelles aux États-Unis.

Twitter Communications (septembre 2020). Résultats de l'expérimentation « Read before you Retweet ».

Gabielkov, M., Ramachandran, A., Chaintreau, A., & Legout, A. (2016). « Social Clicks: What and Who Gets Read on Twitter? » ACM SIGMETRICS (Columbia University & INRIA).

WhatsApp (2020). Réduction de 70 % des messages hautement transférés après limitation du forwarding à un seul destinataire.

Suivant
Suivant

L'emprise cognitive : quand la guerre de l’information reproduit les stratégies de l’agresseur intime.