Una caja de herramientas para detectar el choro

Una caja de herramientas para detectar el choro Carl Sagan Traducción parcial del capítulo “The fine art of baloney detection”, en Carl Sagan, The dem...
1 downloads 0 Views 364KB Size
Una caja de herramientas para detectar el choro Carl Sagan Traducción parcial del capítulo “The fine art of baloney detection”, en Carl Sagan, The demon-haunted world, science as a candle in the dark, Nueva York, Random House, 1995, pp. 210-216. Una versión preliminar de esta traducción fue publicada, con el título “Una caja de herramientas para detectar el rollo”, en Investigación FIMPES (Federación de Instituciones Mexicanas Particulares de Educación Superior), no. 1, primavera 1997, pp. 38-41.

Traducción de David Charles Wright Carr Fecha de la última revisión: 8 de octubre de 2013

En la ciencia podemos empezar con resultados de experimentos, datos, observaciones y medidas, o sea, “hechos”. Inventamos, si podemos, una rica gama de explicaciones posibles y confrontamos sistemáticamente cada explicación con los hechos. En el transcurso de su entrenamiento, los científicos se equipan con una caja de herramientas para detectar el choro. Esta caja se saca automáticamente cada vez que se ofrecen nuevas ideas para ser consideradas. Si la idea nueva sobrevive el examen con las herramientas de nuestra caja, la aceptamos de una manera calurosa pero tentativa. Si usted no quiere aceptar un choro —aún cuando sentiría tranquilidad al hacerlo—, puede tomar precauciones; hay un método probado y seguro para hacerlo. ¿Qué hay en la caja? —Herramientas para el pensamiento crítico. El pensamiento crítico, esencialmente, es la manera de construir y entender un argumento razonado y —esto es especialmente importante— de reconocer un argumento falaz o fraudulento. La pregunta no es si nos gusta la conclusión que emerge de una secuencia de razonamientos, sino si la conclusión resulta de la premisa o punto de arranque, y si la premisa es verídica. Entre las herramientas están las siguientes:    

 

  

Cuando sea posible, debe haber una confirmación independiente de los “hechos”. Hay que fomentar el debate sustantivo acerca de la evidencia, con personas bien informadas, defensoras de todos los puntos de vista. Los argumentos basados en la autoridad son poco pertinentes. Las “autoridades” se han equivocado en el pasado. Lo harán de nuevo en el futuro. Quizá una mejor manera de decirlo es que en la ciencia no hay autoridades; cuando mucho hay expertos. Elabore más de una sola hipótesis. Si hay algo que explicar, piense en todas las maneras diferentes con las cuales aquella cosa puede ser explicada. Luego piense en las pruebas, por medio de las cuales usted podría refutar cada una de las alternativas. La que sobrevive, la hipótesis que resiste la refutación en esta selección darwiniana entre las múltiples hipótesis de trabajo, tiene una probabilidad superior de ser la respuesta correcta, en lugar de usar la primera hipótesis que se le hubiera antojado.1 Trate de no enamorarse de una hipótesis simplemente porque sea suya. Sólo es un paradero temporal en la búsqueda del conocimiento. Hágase la pregunta: ¿Por qué me gusta la idea? Compárela imparcialmente con las alternativas. Busque razones para rechazarla. Si usted no lo hace, otros lo harán. Cuantifique. Si lo que usted está explicando tiene alguna medida, alguna cantidad numérica asociada, podrá elegir mejor entre las diferentes hipótesis que están en competencia entre sí. Las cosas que son vagas y cualitativas están abiertas a muchas explicaciones. Por supuesto, podemos buscar verdades acerca de los asuntos cualitativos que frecuentemente tenemos que enfrentar, pero encontrar estas verdades es un reto mayor. Si hay una cadena de argumentos, cada uno de los eslabones, incluyendo la premisa, tiene que funcionar, no sólo la mayor parte de ellos. La “navaja de Occam”. Esta conveniente regla empírica nos insta a escoger, cuando tenemos dos hipótesis que explican los datos de una manera igualmente aceptable, la que sea más sencilla. Siempre hay que preguntar si la hipótesis puede ser falsada (refutada), por lo menos en teoría. Las proposiciones que no se pueden probar ni refutar no tienen mucho valor. Considere la gran idea de que nuestro universo y todo lo que contiene es sólo una partícula elemental —un electrón, digamos— en un cosmos mucho mayor. Pero si nunca podemos conseguir información que proceda de más allá de nuestro universo, ¿no sería imposible refutar la idea? Es necesario poder averiguar las afirmaciones. Los escépticos más críticos deben tener la oportunidad de seguir tus razonamientos, de duplicar tus experimentos, para ver si obtienen el mismo resultado.

La confianza en los experimentos que hayan sido cuidadosamente diseñados y controlados es la clave, como he insistido. No vamos a aprender gran cosa de la mera contemplación. Existe la tentación de conformarnos con la primera explicación que se nos ocurre. Una explicación es mejor que ninguna. Pero ¿qué pasa cuando inventamos varias? ¿Cómo nos decidimos entre ellas? No nos decidimos. Dejamos que decida la experimentación. Francis Bacon formuló la razón clásica: “La argumentación en sí no puede bastar para descubrir algo nuevo, porque la Éste es un problema que afecta los juicios ante jurados. Estudios retrospectivos muestran que algunos miembros de los jurados toman sus decisiones de manera prematura —quizá durante los argumentos iniciales— y retienen la evidencia que parece apoyar sus impresiones iniciales, rechazando la evidencia contraria. El método de las múltiples hipótesis de trabajo no está operando en sus cabezas. 1

2

sutileza de la naturaleza es muchas veces mayor a la sutileza de los argumentos”. Los experimentos controlados son esenciales. Por ejemplo, si se dice que una nueva medicina puede curar una enfermedad en un veinte por ciento de los casos, debemos asegurarnos de que una población de control, que toma píldoras fingidas hechas de azúcar, no experimente la remisión espontánea de la enfermedad en un veinte por ciento de los casos. Hay que separar las variables. Imagine usted que está mareado, y le dan al mismo tiempo una pulsera de acupresión y cincuenta miligramos de meclicina. Desaparece la sensación desagradable de mareo. ¿Cuál remedio le ayudó? ¿La pulsera o la píldora? La única manera de averiguarlo será usar una cosa sin la otra la próxima vez que se marea. Ahora bien, imagine que no tiene tanta dedicación a la ciencia como para correr el riesgo de sufrir el mareo. No va a separar las variables. Va a usar ambos remedios otra vez. Ha logrado el resultado práctico deseado; un conocimiento mayor, podría decir, no vale la pena si va a tener que sufrir para obtenerlo. Con frecuencia hay que realizar un experimento “a doble ciego”, para que los que esperan obtener un resultado determinado no sean los que evalúen el experimento, pudiéndose comprometer así los resultados. Cuando se evalúa una nueva medicina, por ejemplo, no vamos a querer que los médicos que determinen los síntomas de los pacientes sepan cuáles hayan recibido la sustancia. Ese conocimiento podría influir en su decisión, aunque fuera de una manera inconsciente. Sería mejor comparar la lista de los que experimentaron la remisión de las síntomas con la lista de los que recibieron la nueva droga, obteniendo cada dato de manera independiente. Entonces podríamos determinar la correlación entre las dos listas. De la misma manera, en una rueda policiaca de sospechosos (o cuando se enseñen fotos de los sospechosos a un testigo), el oficial responsable no debería saber cuál es el principal sospechoso, para que no influya en el testigo, de manera consciente o inconsciente. ——— Una buena caja de herramientas para detectar el choro, además de enseñarnos qué debemos hacer cuando evaluamos una pretensión del conocimiento, debe enseñarnos qué no hay que hacer. Nos ayuda a reconocer las falacias más comunes y peligrosas de tipo lógico y retórico. Hay muchos ejemplos buenos en la religión y la política, porque sus practicantes, a menudo, tienen que justificar dos proposiciones contradictorias. Entre estas falacias están las siguientes:  







Ad hominem: “al hombre” en latín; atacar al argumentador y no al argumento. (Por ejemplo: Se sabe que el reverendo Dr. Smith es un evangelista bíblico, por lo tanto no hay que tomar en serio sus objeciones a la evolución.) El argumento basado en la autoridad. (Por ejemplo: El presidente Richard Nixon debe ser reelegido porque tiene un plan secreto para poner fin a la guerra en el sudeste de Asia. Pero porque fue un secreto, no había ninguna manera que los votantes evaluaran el plan por sus cualidades intrínsecas. El argumento consistió en confiar en Nixon porque era el presidente: un error, sabemos ahora.) El argumento basado en las consecuencias negativas. (Por ejemplo: Un Dios que castiga y premia debe de existir, porque si Él no existiera, la sociedad sería mucho más anárquica y peligrosa, tal vez ingobernable.2 Otro ejemplo: El acusado en un juicio célebre debe ser declarado culpable; de otra manera, sería un incentivo para que otros hombres asesinen a sus esposas.) Llamar a la ignorancia; la afirmación que lo que no se ha demostrado falso debe ser cierto, y viceversa. (Por ejemplo: No hay evidencia fehaciente que los OVNIs no estén visitando la Tierra; por lo tanto existen los OVNIs y hay vida inteligente en otras partes del universo. Otro ejemplo: Puede ser que haya un número casi infinito de mundos, pero no se sabe que los habitantes de alguno de ellos hayan logrado el desarrollo moral de la Tierra, por lo tanto todavía tenemos un papel central en el universo.) Esta falta de paciencia con la ambigüedad puede ser criticada con la siguiente frase: la ausencia de evidencia no es evidencia de la ausencia. Los alegatos especiales, empleados con frecuencia para rescatar una proposición con graves problemas retóricos. (Por ejemplo: ¿Cómo es posible que un Dios misericordioso condene las generaciones futuras al tormento sólo porque una mujer, contra órdenes, indujo a un hombre a comer una manzana? Alegato especial: No entiendes la sutil doctrina del libre albedrío. Otro ejemplo: ¿Cómo puede haber un Padre, un

A continuación se transcribe una formulación más cínica de la misma idea, del historiador romano Polibio: “Puesto que las masas son inconstantes, apasionadas e imprudentes, repletas de deseos indomables, hay que llenarlas de miedo para mantenerlas en regla. Los antiguos hacían bien, por lo tanto, cuando inventaron a los dioses y la creencia en el castigo después de la muerte”. 2

3



 

 

 

 

Hijo y un Espíritu Santo, igualmente divinos, en una sola persona? Alegato especial: No entiendes el divino misterio de la Trinidad. Otro ejemplo: ¿Cómo es posible que Dios permita que los seguidores del Judaísmo, del Cristianismo y del Islam —cada uno comprometido, a su modo, a tomar medidas heroicas de bondad amorosa y compasión— hayan cometido tantos actos de crueldad durante tanto tiempo? Alegato especial: De nuevo, no entiendes la sutil doctrina del libre albedrío; además, Dios actúa de una manera misteriosa.) Forzar la respuesta; esta falacia también se llama suponer la respuesta. (Por ejemplo: Debemos implementar la pena de muerte para desalentar el crimen violento. Pero ¿realmente baja la incidencia del crimen violento cuando se implementa la pena de muerte? Otro ejemplo: La bolsa de valores cayó ayer por un ajuste técnico y la toma de ganancias de los inversionistas. Pero ¿realmente hay evidencia independiente para el papel causal de los “ajustes” y la toma de ganancias? ¿Hemos aprendido algo de esta supuesta explicación?) La selección en la observación, también llamada la enumeración de las circunstancias favorables, o como la describió el filósofo Francis Bacon, contar los aciertos y olvidar las fallas. 3 (Por ejemplo: Un Estado se jacta de sus presidentes, pero no menciona a sus asesinos.) Las estadísticas de cantidades pequeñas, pariente cercano de la “selección en la observación”. (Por ejemplo: Dicen que una de cada 5 personas es china. ¿Cómo es posible? Conozco a cientas de personas, y ninguna es china. Atentamente… Otro ejemplo: He tirado [con los dados] tres sietes consecutivos. Esta noche no puedo perder.) Desconocer la naturaleza de la estadística. (Por ejemplo: El presidente Dwight Eisenhower expresó su asombro y preocupación cuando supo que la mitad de todos los estadounidenses tienen una inteligencia inferior al promedio.) La inconsistencia. (Por ejemplo: Planear, prudentemente, para lo peor que podría hacer un adversario militar, pero hacer caso omiso, frugalmente, a las proyecciones científicas de los peligros ambientales porque no están “comprobadas”. Otro ejemplo: Atribuir la edad descendente de la muerte por vejez en la ex Unión Soviética a los fracasos del comunismo, pero nunca atribuir el alto índice de mortandad infantil en los Estados Unidos (hoy el más alto entre los principales países industrializados) a los fracasos del capitalismo. Otro ejemplo: Pensar que es razonable que el universo pueda existir para siempre en el futuro, pero juzgar como absurda la idea que también pudiera tener una duración infinita en el pasado). Non sequitur: “no sigue” en latín. (Por ejemplo: Nuestra nación prevalecerá porque Dios es grande. Pero casi todas las naciones alegan esto; la fórmula alemana era “Got mit uns”.) Con frecuencia los que caen en la falacia non sequitur simplemente no han logrado reconocer las posibilidades alternativas. Post hoc, ergo propter hoc: “sucedió después, por lo tanto fue causado por” en latín. (Por ejemplo: las siguientes palabras de Jaime Cardinal Sin, arzobispo de Manila: “Sé de… una mujer de 26 años que parece tener 60, porque toma píldoras anticonceptivas”. Otro ejemplo: Antes de que las mujeres obtuvieron el derecho al voto, no había armas nucleares.) La pregunta sin sentido. (Por ejemplo: ¿Qué pasa cuando una fuerza irresistible se encuentra con un objeto inmovible? Pero si existiera una fuerza irresistible, no podría haber un objeto inmovible, ni viceversa.) Excluir el centro, o la falsa dicotomía: considerar sólo los dos extremos de una gradación de posibilidades

3

Mi ejemplo favorito es la siguiente anécdota, acerca del físico italiano Enrico Fermi, recién desembarcado en los Estados Unidos, reclutado para el Proyecto Manhattan para desarrollar armas nucleares, cuando conoció a los altos mandos militares estadounidenses durante la Segunda Guerra Mundial: —“Fulano es un gran general” —se le dijo. —“¿Cuál es la definición de un gran general?” —preguntó Fermi de manera característica. —“Supongo que sea un general quien ha ganado muchas batallas consecutivas”. —“¿Cuántas?” Después de un breve diálogo, acordaron que cinco batallas consecutivas son “muchas”. —“¿Qué fracción de los generales estadounidenses son grandes?” Después de otro breve diálogo, acordaron que un pequeño porcentaje son “grandes”. —“Pero imagínese —replicó Fermi— que no hubiera tal cosa como un gran general, que todos los ejércitos tuviesen capacidades idénticas, y que ganar una batalla fuera puramente cosa de probabilidades. Entonces la probabilidad de ganar una batalla sería un cincuenta por ciento, o 1/2; dos batallas, 1/4, tres 1/8, cuatro 1/16 y cinco batallas 1/32, lo cual es aproximadamente un tres por ciento. Supondrías que un pequeño porcentaje de los generales estadounidenses hubiera ganado cinco batallas consecutivas, simplemente por las probabilidades. Ahora bien, ¿acaso alguno de ellos haya ganado diez batallas consecutivas…?”

4













intermedias. (Por ejemplo: Claro, ponte de su lado; mi marido es perfecto; yo siempre estoy equivocada. Otro ejemplo: O amas a tu patria o la odias. Un ejemplo más: Si no eres parte de la solución, eres parte del problema.) Corto plazo contra largo plazo; una subdivisión de “excluir el centro”, tan importante que la he separado para darle un tratamiento especial. (Por ejemplo: No podemos pagar los programas para dar de comer a los niños desnutridos ni para educar a los niños de edad preescolar. Necesitamos, urgentemente, atacar el problema del crimen en nuestras calles. Otro ejemplo: ¿Por qué vamos a explorar el espacio o llevar a cabo programas de la investigación científica básica cuando tenemos un déficit presupuestal tan grande?) La cuesta resbalosa; relacionada con “excluir el centro”. (Por ejemplo: Si permitimos el aborto durante las primeras semanas del embarazo, será imposible evitar que se maten a los bebés cerca del momento del parto. Otro ejemplo, a la inversa: Si el Estado prohíbe el aborto aún en el noveno mes, pronto nos querrá decir qué hacer con nuestros cuerpos alrededor del momento de la concepción.) Confundir la correlación con la causalidad. (Por ejemplo: Un estudio demuestra que más egresados universitarios son homosexuales que los que tienen menos preparación académica; por lo tanto la educación hace que la gente sea homosexual. Otro ejemplo: Los temblores en la región andina se correlacionan con los momentos de mayor acercamiento entre Urano y la Tierra; por lo tanto —a pesar de la ausencia de tal correlación para el planeta Júpiter, más cercano y masivo— los acercamientos de Urano causan los temblores.4 El hombre de paja: burlarse de una posición para que sea más fácil atacarla. (Por ejemplo: Los científicos suponen que los seres vivos simplemente surgieron al azar; una formulación que ignora dolosamente la intuición central de Darwin, que la naturaleza se mejora guardando lo que funciona y desechando lo que no sirve. Otro ejemplo —ésta es otra falacia de tipo “corto plazo/largo plazo”—: Los defensores del medio ambiente cuidan más a los búhos manchados que a las personas.) La evidencia suprimida o las verdades a medias. (Por ejemplo: Una “profecía” muy acertada y difundida acerca del intento de asesinato del presidente Reagan se reporta en la televisión. Pero —un detalle importante— ¿fue grabada antes o después del suceso? Otro ejemplo: Estos abusos del gobierno exigen una revolución; no se puede hacer un omelet sin romper algunos huevos. Sí, pero ¿es probable que ésta sea una revolución en la cual una cantidad mucho mayor de personas será ejecutada que en el antiguo régimen? ¿Qué es lo que sugiere la experiencia histórica de otras revoluciones? ¿Todas las revoluciones en contra de los regímenes represivos son deseables, y benefician al pueblo?) Las palabras de comadreja. (Por ejemplo: La separación de los poderes en la Constitución de los Estados Unidos de América señala que el país no puede hacer una guerra sin una declaración del Congreso. Por otra parte, a los presidentes se les otorga el control de la política extranjera y el manejo de las guerras, herramientas poderosas para lograr la reelección. De esta manera los presidentes de cualquier partido político pueden sentir la tentación de alzar la bandera nacional y hacer la guerra, nombrándola con otras palabras, como “acciones policiacas”, “incursiones armadas”, “golpes protectores”, “pacificación”, “protección de los intereses nacionales” y una amplia gama de “operaciones”, como “Operación Causa Justa”. Los eufemismos para la guerra constituyen sólo un ejemplo de una amplia categoría de recreaciones lingüísticas con propósitos políticos. Dijo Talleyrand: “Un arte importante de los políticos es encontrar nuevos nombres para las instituciones que, bajo los viejos nombres, son odiados por el pueblo”.)

Conocer estas falacias lógicas y retóricas completa nuestra caja de herramientas. Como todas las herramientas, este método para detectar el choro puede ser abusado, aplicado fuera de contexto o incluso empleado como una alternativa mecánica al razonamiento auténtico. Pero si es aplicado con juicio, puede ser determinante, especialmente para evaluar a nuestros propios argumentos, antes de presentarlos a los demás.

4

Otro ejemplo: Los niños que ven mucho la televisión tienden a ser más violentos cuando sean grandes. Pero ¿fue la televisión la que causó la violencia, o sería que los niños violentos prefieren ver los programas violentos? Es muy probable que las dos cosas sean verídicas. Los defensores comerciales de la violencia televisada insisten que cualquier persona puede distinguir entre la televisión y la realidad. Pero los programas para niños que se ponen al aire los sábados por las mañanas ahora presentan veinticinco actos violentos por hora en promedio. Esto por lo menos desensibiliza a los niños pequeños ante la agresión y la crueldad. Además, si a los adultos impresionables se les puede implantar memorias falsas en sus mentes, ¿qué es lo que estamos implantando en nuestros niños cuando los exponemos a unos 100,000 actos de violencia antes de que egresan de la escuela primaria?

5