diff --git a/x-cause-y/x-cause-y_esp.html b/x-cause-y/x-cause-y_esp.html new file mode 100644 index 0000000..1bde608 --- /dev/null +++ b/x-cause-y/x-cause-y_esp.html @@ -0,0 +1,492 @@ + + + + +
+ + + + + + + + +10 estrategias para entender si X causó Y
+Resumen 1. Aleatorización 2. Experimento controlado (homogeneidad inducida al nivel de la unidad) 3. Experimentos naturales (o “como si fueran” aleatorizados) 4. Comparaciones antes/después 5. Controlando ex post I: Regresión 6. Controlando ex post: II: Emparejar y Ponderar 7. Variables instrumentales (Instrumental Variables, IV) 8. Diseños de regresión discontinua (Regression discontinuity design, RDD) 9. Rastreo de procesos 10. Estrategias de entrada (Front-door strategies) (Argumento de mecanismos)
+Los experimentos son una forma de averiguar si un evento causa otro evento. La idea básica es: pruébelo y descúbralo. Lo complicado es averiguar cómo probarlo de una manera que genere confianza en nuestras creencias sobre los efectos causales. Una estrategia comúnmente utilizada por los investigadores es la intervención aleatoria. Esta es la estrategia que está en el centro de la mayoría de las investigaciones experimentales realizadas por los miembros de EGAP. Pero hay otras estrategias que a veces son más apropiadas. Aquí describimos las diez estrategias más destacadas para determinar efectos causales. 1
+La estrategia utilizada en pruebas de control aleatorias (o intervenciones aleatorias, experimentos aleatorios) consiste en utilizar algún tipo de sorteo para determinar quién, dentro de algún grupo, tendrá o no acceso a un tratamiento o programa (o quizás quién lo recibirá primero y quién después, o quién recibirá una versión y quién otra). El atractivo de este enfoque es que utiliza la aleatorización para averiguar cuáles son los efectos sistemáticos de un programa. La aleatorización reduce la posibilidad de que una relación observada entre el tratamiento y las variables de resultado se deba a “posibles factores que puedan generar confusión” (confounding factors), es decir, a otras cosas que son diferentes entre los grupos (por ejemplo, podría preocuparnos que las cosas parezcan mejores en áreas tratadas precisamente porque los programas son implementados en áreas donde las cosas funcionan bien, pero al saber que la selección fue aleatoria esta preocupación se elimina por completo). Esta estrategia es poderosa porque garantiza que no hay una relación sistemática entre el tratamiento y todas las demás características que pueden afectar a las variables de resultado, seamos consciente de ellas o no. Por esta razón, a menudo se considera el mejor modelo a seguir. Sin embargo la aleatorización no puede utilizarse siempre y en todas partes, tanto por razones éticas como prácticas. Pero puede utilizarse en muchas más situaciones de lo que se tiende a creer. Léase Humphreys y Weinstein para una discusión de las ventajas y las limitaciones de este método para investigación en economía política de desarrollo.
+Una segunda estrategia que se usa más en la física y espacios de laboratorio es utilizar el control experimental para asegurar que dos unidades son idénticas entre sí en todos los aspectos relevantes excepto en el tratamiento. Por ejemplo, para ver si una pelota pesada cae más rápido que una más ligera, nos podemos asegurar de que tengan la misma forma y tamaño y dejarlas caer al mismo tiempo, en las mismas condiciones meteorológicas, etc. Luego podemos atribuir cualquier diferencia en los resultados a las características que no se han mantenido constante entre las dos unidades. Esta estrategia es fundamentalmente diferente a la utilizada en los ensayos aleatorios. En dichos ensayos, normalmente se renuncia a la idea de mantener todo fijo y se intenta asegurar que la variación natural sobre variables que se pueden o no observar, no produzca un sesgo en las estimaciones; adicionalmente se busca evaluar los efectos promedio en una gama de factores de contexto en lugar de un conjunto fijo de factores de contexto. Las ventajas de hacer este tipo control dependen de la confianza que tengamos en que se pueden controlar todos los factores relevantes; si no se puede, el enfoque aleatorio puede ser más apropiado.
+A veces los investigadores no pueden aleatorizar, pero la inferencia causal sigue siendo posible porque la naturaleza ha hecho la aleatorización por ellos. La característica clave del enfoque del “experimento natural” es que tenemos razones para creer que la variación en algún tratamiento natural es “como si fuera aleatoria”. Por ejemplo, digamos que los cupos en un colegio se asignan por sorteo. Entonces podríamos analizar los efectos de la asistencia a la escuela como si se tratara de un ensayo de control aleatorio. Una investigación ingeniosa sobre los efectos del conflicto en los niños realizada por Annan y Blattman utilizó el hecho de que el Ejército de Resistencia del Señor (Lord’s Resistance Army, LRA) en Uganda secuestró a niños de forma casi aleatoria. Otro estudio ingenioso sobre los programas de Desarme, Desmovilización y Reintegración (DDR) realizado por Gilligan, Mvukiyehe y Samii tomó provecho del hecho de que los trabajos de una ONG se interrumpieron debido a una disputa contractual, lo que dio lugar a un grupo de control “natural” de excombatientes que no recibieron programas de desmovilización. Puede ver el libro de Dunning para una guía sobre cómo encontrar y analizar experimentos naturales.
+A menudo, lo primero que se busca para determinar efectos causales es la comparación de las unidades antes y después del tratamiento. Aquí se utiliza el pasado como control del presente. La idea básica es muy intuitiva: se apaga el interruptor de la luz y se ve que la luz se apaga; atribuir el cambio de luz a la acción parece fácil incluso en ausencia de aleatorización o control. Pero este enfoque no es tan fiable para muchas intervenciones sociales, especialmente en entornos cambiantes. El problema es que las cosas mejoran o empeoran por muchas razones, no necesariamente relacionadas con los tratamientos o programas que nos interesan. De hecho, es posible que debido a todos los demás cambios, las cosas puedan empeorar en un área del programa, incluso si esos programas tuvieron un efecto positivo (¡las cosas empeoraron pero no están tan mal como lo habrían estado sin el programa!). Una aproximación más sofisticada que la simple comparación antes/después se denomina “diferencia en diferencias” (difference in differences): básicamente se compara la diferencia antes/después de las áreas de tratamiento con las de las áreas de control. Este es un buen enfoque, pero hay que asegurarse de que se dispone de buenos grupos de control y, en particular, de que no es probable que los grupos de control y de tratamiento cambien por razones distintas al tratamiento.
+Quizás la aproximación más común para la identificación causal en el análisis estadístico aplicado es el uso de la regresión múltiple para controlar los posibles factores que pueden generar confusión. La idea es tratar de utilizar cualquier información que se tenga sobre por qué las áreas tratadas y no tratadas no son fácilmente comparables y ajustar estas diferencias estadísticamente. Este método funciona bien en la medida en que se puedan averiguar y medir los factores de confusión y su relación con el tratamiento, pero no funciona si no se sabe cuáles son los factores de confusión. En general, no conocemos cuáles son todos los posibles factores de confusión, y eso expone este enfoque a todo tipo de sesgos (de hecho, si se controlan las variables equivocadas, es posible introducir sesgos donde antes no existían).
+Una variedad de enfoques alternativos trata de tener en cuenta las variables de confusión al emparejar de manera cuidadosa las unidades de tratamiento con una o varias unidades de control. Emparejar tiene algunas ventajas sobre la regresión (por ejemplo, las estimaciones pueden ser menos sensibles a las elecciones de la forma funcional), pero la idea básica es, sin embargo, similar, y de hecho los métodos de emparejamiento pueden implementarse en un marco de regresión utilizando ponderaciones adecuadas. Al igual que la regresión, en el fondo esta estrategia depende de la convicción de que no hay variables de confusión importantes que el investigador desconozca o no pueda medir. Algunos métodos específicos incluyen:
+Se puede utilizar un método muy diferente para estimar los efectos causales si los investigadores pueden encontrar alguna característica que explique por qué un grupo determinado recibió el tratamiento, pero que no esté relacionada con la variable de resultado. Esta característica se denomina instrumento. Por ejemplo, supongamos que estamos interesados en el efecto de un programa de medios de sustento sobre el empleo y resulta que la mayoría de las personas que accedieron a dicho programa lo hicieron porque eran parientes de un funcionario del programa. Entonces, si no hay otras formas de relacionar el hecho de ser pariente de esta persona con las perspectivas de algún empleo, se puede calcular el efecto del programa al estimar el efecto de ser pariente de este individuo en las perspectivas de empleo. Este ha sido un enfoque bastante popular, pero parte del entusiasmo por él ha decaído un poco, básicamente porque es difícil encontrar un buen instrumento. Una aplicación ingeniosa para estudiar los efectos de la pobreza en el conflicto utilizó las precipitaciones de lluvia en África como instrumento para ingresos/crecimiento. Aunque existe la preocupación de que la correlación entre conflicto y pobreza se deba a que el conflicto pueda causar la pobreza, ¡no suena posible que el conflicto cause las precipitaciones! Por lo tanto, el uso de las precipitaciones de lluvia como instrumento dio mucha más certeza en que realmente existe una relación causal, y no sólo correlacional, entre la pobreza y el conflicto.
+El método de regresión discontinua no es muy utilizado, pero tiene un gran potencial. Funciona de la siguiente manera: digamos que se va a poner un programa a disposición de un conjunto de beneficiarios potenciales. Estos beneficiarios potenciales se clasifican en función de un conjunto de criterios relevantes, como pueden ser niveles de educación previos, la situación laboral, etc. Estos criterios pueden ser cuantitativos, pero también pueden incluir información cualitativa, como una valoración a partir de una entrevista. Estos criterios individuales se agregan en una única puntuación y se identifica un umbral. Los candidatos con una puntuación superior a este umbral son admitidos en el programa, mientras que los que están por debajo no son admitidos. Los grupos de “Proyecto” y “Comparación” son identificados, al seleccionar a los candidatos que están cerca de este umbral por ambos lados. Al usar este método podemos estar seguros de que las unidades tratadas y no tratadas son similares, al menos cerca al umbral. Incluso tenemos una medida directa de la característica principal en la que difieren (su puntuación en los criterios de selección). Esta información proporciona la clave para estimar un efecto del programa a partir de la comparación de las variables de resultados entre estos dos grupos. La ventaja de este enfoque es que solo se necesita que la agencia que implementa el programa utilice un conjunto claro de criterios (que pueden convertirse en una puntuación), sobre los que se toman las decisiones de asignación de tratamiento. La desventaja es que sólo se pueden hacer estimaciones realmente fiables del impacto para las unidades situadas cerca al umbral. Para una visión general de la RDD, léase Skovron y Titiunik y Lee y Lemieux; para dos aplicaciones interesantes, léase Manacorda et al. sobre Uruguay y Samii sobre Burundi.
+En gran parte del trabajo cualitativo, los investigadores tratan de establecer la causalidad, no sólo observando si la participación en un programa se asocia con mejores resultados, sino también (a) buscando los pasos del proceso a lo largo del camino que dirían si un programa tuvo los efectos que se cree que tuvo y (b) buscando pruebas de otras variables de resultado que deberían verse si (o tal vez: si y sólo si) el programa fue eficaz. Por ejemplo, no sólo si las personas de un programa de medios de sustento consiguieron un trabajo, sino si además recibieron formación en algo útil, si recibieron ayuda de personas del programa para encontrar un empleador en esa zona, etc. Si todos estos pasos se dan, se puede confiar en que la relación es causal y no espuria. Si se implementó un programa pero nadie participó realmente en él, esto podría dar pie a sospechar que cualquier correlación entre el tratamiento y las variables de resultados es espuria. La dificultad con este enfoque es que puede ser difícil saber si alguna prueba dentro del caso tiene valor probatorio. Por ejemplo, un programa puede tener efectos positivos (o negativos) a través de muchos procesos de los que no se sabe nada, y los procesos que se consideran importantes, pueden no serlo. Léase Humphreys y Jacobs para una descripción de la lógica Bayesiana subyacente al rastreo de procesos e ilustraciones de cómo combinarlo con otros enfoques estadísticos.
+Un último método, conceptualmente cercano al rastreo de procesos, consiste en en la argumentación usando mecanismos. Digamos que sabemos que sólo \(A\) puede causar \(C\) sólo a través de \(B\). Digamos, además, que sabemos que ninguna tercera cosa puede causar tanto \(B\) como \(C\) (salvo, quizás, a través de \(A\)) y que ninguna tercera cosa puede causar tanto \(A\) como \(B\). Entonces se puede utilizar la covariación entre \(A\) y \(B\) y entre \(B\) y \(C\) para evaluar el efecto de \(A\) en \(C\). La ventaja es que la causalidad puede establecerse incluso en presencia de factores de confusión, por ejemplo, incluso si variables no observadas causan tanto \(A\) como \(C\). La dificultad, sin embargo, es que la estrategia requiere mucha confianza en sus creencias sobre la estructura de las relaciones causales. Para más información, léase Pearl (2000).
+Autor de origen: Macartan Humphreys. Revisiones menores: Winston Lin, 30 de agosto de 2016. La guía es un documento activo y está sujeto a actualización por parte de los miembros de EGAP en cualquier momento; los colaboradores enumerados no son responsables de las ediciones posteriores.↩
Les expériences sont un moyen de déterminer si quelque chose cause quelque chose d’autre. L’idée de base, c’est d’essayer pour savoir. Ce qui est délicat, c’est d’essayer d’une manière qui permette d’avoir assez confiance pour croire les effets causaux. L’intervention randomisée est une stratégie qui occupe une place de choix dans la boîte à outils du chercheur. C’est la stratégie qui est au cœur de la plupart des recherches expérimentales menées par les membres de EGAP. Mais il existe d’autres stratégies qui sont parfois plus appropriées. Nous décrivons ici les dix stratégies les plus importantes pour déterminer les effets causaux. 1
+La stratégie utilisée dans les essais randomisés contrôlés (interventions randomisées, expériences randomisées) consiste à utiliser une forme de loterie pour déterminer qui, dans un groupe, aura ou n’aura pas accès à un traitement ou à un programme (ou peut-être qui aura accès en premier et qui aura accès plus tard, ou qui aura accès à une version et qui aura accès à une autre). L’élégance de l’approche est qu’elle utilise le hasard pour déterminer quels sont les effets systématiques d’un programme. Le caractère aléatoire réduit le risque qu’une relation observée entre le traitement et les résultats soit due à des “facteurs de confusion” - i.e. d’autres différences entre les groupes (par exemple, on pourrait craindre que les choses s’améliorent dans les zones de traitement précisément parce que les programmes choisissent une zone qui fonctionne déjà bien, mais savoir que la sélection est aléatoire efface complètement cette préoccupation). La randomisation est puissante car elle garantit qu’il n’y a pas de relation systématique entre le traitement et toutes les autres caractéristiques qui peuvent affecter les résultats, que vous en soyez conscient ou non. Pour cette raison, c’est souvent considéré comme l’étalon-or. Cependant, la randomisation ne peut être utilisée toujours et partout, à la fois pour des raisons éthiques et pratiques. Mais elle peut être utilisée dans beaucoup plus de situations que les gens ne le pensent. Voir Humphreys et Weinstein pour une discussion sur les forces et les limites de l’approche en économie politique du développement.
+Une deuxième stratégie plus utilisée en laboratoire et également en sciences physiques consiste à utiliser un contrôle expérimental pour s’assurer que deux unités sont identiques à tous les égards pertinents, à l’exception du traitement. Par exemple, si vous vouliez voir si une balle lourde tombe plus vite qu’une balle plus légère, vous pouvez vous assurer qu’elles ont la même forme et la même taille et les laisser tomber toutes les deux en même temps, dans les mêmes conditions météorologiques, et ainsi de suite. Vous attribuez ensuite toute différence de résultats à la caractéristique que vous n’avez pas maintenue constante entre les deux unités. Cette stratégie est fondamentalement différente de celle utilisée dans les essais randomisés. Dans les essais randomisés, vous abandonnez l’idée de tout garder fixe et cherchez plutôt à vous assurer que la variation naturelle - sur des variables que vous pouvez ou ne pouvez pas observer - ne produit pas de biais dans vos estimations ; en outre, vous cherchez à évaluer les effets moyens pour une plage de conditions de base plutôt que pour un ensemble fixe de conditions de base. Les mérites de l’approche du contrôle expérimental dépendent de votre confiance dans le contrôle effectif de tous les facteurs pertinents ; si le contrôle n’est pas effectif, alors une approche randomisée peut être meilleure.
+Parfois, les chercheurs ne sont pas en mesure de randomiser, mais l’inférence causale est toujours possible car la nature a fait la randomisation pour vous. La caractéristique clé de l’approche “expérience naturelle” est que vous avez des raisons de croire que la variation de certains traitements naturels est “supposée aléatoire”. Par exemple, disons que les places dans une école sont attribuées par tirage au sort. Ensuite, vous pourrez peut-être analyser les effets de la fréquentation scolaire comme s’il s’agissait d’un essai randomisé contrôlé. Une étude intelligente des effets des conflits sur les enfants par Annan et Blattman a utilisé le fait que la Lord’s Resistance Army (LRA) en Ouganda a enlevé des enfants de façon assez aléatoire. Une autre étude intelligente sur les programmes de Désarmement, Démobilisation et Réintégration (DDR) par Gilligan, Mvukiyehe et Samii a utilisé le fait que les opérations d’une ONG ont été interrompues en raison d’un différend contractuel, ce qui a donné lieu à un groupe de contrôle “naturel” d’ex-combattants qui n’ont pas bénéficié de programmes de démobilisation. Voir le livre de Dunning pour trouver et analyser des expériences naturelles.
+Souvent, la première chose vers laquelle les gens se tournent pour déterminer les effets causaux est la comparaison des unités avant et après le contrôle. Ici, vous utilisez le passé comme un contrôle pour le présent. L’idée de base est très intuitive : vous éteignez la lumière et vous voyez la lumière s’éteindre ; attribuer le changement de lumière à l’action semble facile même en l’absence de toute randomisation ou contrôle. Mais pour de nombreuses interventions sociales, l’approche n’est pas si fiable, en particulier dans des environnements changeants. Le problème est que les choses s’améliorent ou empirent pour de nombreuses raisons sans rapport avec les traitements ou les programmes qui vous intéressent. En fait, il est possible qu’en raison de toutes les autres choses qui changent, les choses peuvent empirer dans un domaine du programme même si les programmes ont eu un effet positif (donc les choses empirent mais ne sont toujours pas aussi mauvaises qu’elles l’auraient été sans le programme!). Une approche plus sophistiquée que la simple comparaison avant/après est appelée “méthode des doubles différences” – en gros, vous comparez la différence avant/après dans les zones de traitement avec celles dans les zones de contrôle. C’est une bonne approche mais vous devez toujours être sûr que vous avez de bons groupes de contrôle et en particulier que les groupes de contrôle et de traitement ne sont pas susceptibles de changer différemment pour des raisons autres que le traitement.
+L’approche la plus courante de l’identification causale dans les travaux de statistique appliqués est peut-être l’utilisation de la régression multiple pour contrôler les facteurs de confusion possibles. L’idée est d’essayer d’utiliser toutes les informations dont vous disposez sur les raisons pour lesquelles les zones de traitement et de contrôle ne sont pas facilement comparables et d’ajuster statistiquement ces différences. Cette approche fonctionne bien dans la mesure où vous pouvez déterminer et mesurer les facteurs de confusion et savoir comment ils sont liés au traitement, mais elle n’est pas correcte si vous ne savez pas quels sont les facteurs de confusion. En général, nous ne savons tout simplement pas quels sont tous les facteurs de confusion et cela expose cette approche à toutes sortes de biais (en effet, si vous contrôlez les mauvaises variables, il est possible d’introduire un biais là où il n’y en avait pas auparavant).
+Diverses approches alternatives cherchent à tenir compte des variables de confusion en associant soigneusement les unités de traitement à une ou plusieurs unités de contrôle. L’appariement présente certains avantages par rapport à la régression (par exemple, les estimations peuvent être moins sensibles aux choix de la forme fonctionnelle), mais l’idée de base est néanmoins similaire. En effet, les méthodes d’appariement peuvent être mises en œuvre dans un cadre de régression en utilisant des poids appropriés. Comme la régression, cette stratégie repose sur la conviction qu’il n’y a pas de variables de confusion importantes que le chercheur ignore ou est incapable de mesurer. Les méthodes spécifiques comprennent :
+Une approche très différente pour estimer les effets causaux peut être utilisée si les chercheurs peuvent trouver une caractéristique qui explique pourquoi un groupe donné a reçu un traitement mais qui n’est par ailleurs pas liée au résultat d’intérêt. Une telle caractéristique est appelée un instrument. Par exemple, disons que vous êtes intéressé par l’effet sur l’emploi d’un programme d’aide à la précarité, et que la plupart des personnes ont accédé à ce programme parce qu’elles avaient un lien de parenté avec un agent travaillant pour ce programme particulier. Ensuite, s’il n’y avait pas d’autres façons d’établir une relation entre le lien de parenté de cette personne et ses perspectives d’emploi, alors vous pouvez déterminer l’effet du programme en calculant l’effet d’être un parent de cette personne sur les perspectives d’emploi. Cela a été une approche assez populaire, mais l’enthousiasme pour cette approche est un peu retombé, essentiellement parce qu’il est difficile de trouver un bon instrument. Une application intelligente pour examiner les effets de la pauvreté sur les conflits a utilisé les précipitations en Afrique comme instrument de revenu/croissance. Bien que l’on s’inquiète que la corrélation entre conflit et pauvreté soit due au fait que le conflit pourrait causer la pauvreté, il ne semble pas plausible que le conflit provoque des précipitations ! Ainsi, l’utilisation des précipitations comme instrument ici a augmenté la certitude qu’il existe réellement une relation causale, et pas seulement une corrélation, entre pauvreté et conflit.
+La régression par discontinuité est l’une des approches les plus sous-utilisées, mais elle a un potentiel énorme. La stratégie fonctionne comme suit. Disons qu’un programme va être mis à la disposition d’un ensemble de bénéficiaires potentiels. Ces bénéficiaires potentiels sont tous classés selon un ensemble de critères pertinents, tels que le niveau d’éducation antérieur, le statut d’emploi, etc. Ces critères peuvent être quantitatifs ; mais ils peuvent également inclure des informations qualitatives telles que des évaluations issues d’entretiens. Ces critères individuels sont ensuite agrégés en un seul score et un seuil est identifié. Les candidats dont le score est supérieur à ce seuil sont admis au programme, tandis que les autres ne le sont pas. Les groupes “projet” et “comparaison” sont ensuite identifiés en sélectionnant des candidats proches de ce seuil de part et d’autre. En utilisant cette méthode, nous pouvons être sûrs que les unités traitées et témoins sont similaires, au moins autour du seuil. De plus, nous avons une mesure directe de la principale caractéristique sur laquelle ils diffèrent (leur score sur les critères de sélection). Cette information fournit la clé pour estimer l’effet d’un programme en comparant les résultats entre ces deux groupes. L’avantage de cette approche est que tout ce qui est nécessaire est que l’organisme en charge utilise un ensemble clair de critères (qui peuvent être transformés en un score) sur lesquels ils prennent la décision d’assignation au traitement. L’inconvénient est que des estimations vraiment fiables de l’impact ne peuvent être faites que pour les unités situées juste autour du seuil. Pour un aperçu de la régression par discontinuité, voir Skovron et Titiunik, Lee et Lemieux. Pour deux applications intéressantes, voir Manacorda et al. en Uruguay et Samii au Burundi.
+Dans de nombreux travaux qualitatifs, les chercheurs essaient d’établir la causalité en cherchant à savoir si le fait d’être dans un programme est associé à de meilleurs résultats, mais aussi (a) en recherchant les étapes du processus qui montreraient que le programme a eu les effets que vous pensez qu’il a eu (b) et en recherchant des preuves d’autres résultats qui devraient être observés si (ou peut-être : si et seulement si) le programme était efficace. Par exemple, ils veulent savoir si les personnes participant à un programme d’aide à la précarité ont obtenu un emploi, mais aussi si elles ont été formées à quelque chose d’utile, ont obtenu de l’aide des personnes participant au programme pour trouver un employeur dans ce domaine, etc. Si toutes ces étapes sont présentes, cela donne l’assurance que la relation est causale et non fausse. Si un programme a été mis en œuvre mais que personne n’y a réellement participé, cela peut laisser penser que toute corrélation entre le traitement et les résultats est fausse. La difficulté avec cette approche est qu’il peut être difficile de savoir si un élément de preuve au sein du processus a une valeur probante. Par exemple, un programme peut avoir des effets positifs (ou négatifs) à travers de nombreux processus dont vous ne savez rien et des processus que vous jugez importants, peuvent ne pas l’être. Voir Humphreys et Jacobs pour une description de la logique bayésienne sous-jacente au traçage des processus et des illustrations sur la façon de le combiner avec d’autres approches statistiques.
+Une dernière approche, conceptuellement proche du traçage de processus, consiste à argumenter à partir des mécanismes. Supposons que vous sachiez que seul \(A\) peut causer \(C\) uniquement via \(B\). De plus, vous savez que rien d’autre ne cause à la fois \(B\) et \(C\) (autre que, peut-être, via \(A\)) et que rien d’autre ne cause à la fois \(A\) et \(B\). Ensuite, la covariation entre \(A\) et \(B\) et entre \(B\) et \(C\) peut être utilisée pour évaluer l’effet de \(A\) sur \(C\). L’avantage est que la causalité peut être établie même en présence de facteurs de confusion — par exemple si des variables non observées causent à la fois \(A\) et \(C\). La difficulté cependant est que la stratégie nécessite une confiance forte en vos croyances sur la structure des relations causales. Pour en savoir plus, voir Pearl (2000).
+Auteur d’origine : Macartan Humphreys. Révisions mineures : Winston Lin, 30 août 2016. Le guide est un document vivant et sujet à une mise à jour par les membres de EGAP à tout moment ; les contributeurs répertoriés ne sont pas responsables des modifications ultérieures.↩