2017-06-16

Pseudociencia: Una Introducción Práctica



Como lo hice para la plática que di sobre Ciencia y Religión hace unos meses, he hecho una versión escrita de una plática sobre Pseudociencia que he presentado en un par de ocasiones. Dejar las cosas por escrito me sirve para ordenar mis pensamientos mejor y editarlos considerablemente. Puedo dejar todo en una forma extremadamente pulida comparada con lo que diría de manera oral improvisada porque puedo editar, referenciar, borrar, cambiar de opinión, pensar dos veces antes de comprometerme a un punto de vista, etcétera. La primer vez que ofrecí esta charla fue por invitación de un amigo al colegio Instituto de Ciencias, y la segunda fue por invitación de la Sociedad Astronómica de Guadalajara. En ambas ocasiones presenté prácticamente el mismo material, aunque la segunda ocasión incluí algunas mejoras basadas en la reacción a la primera. Lo siguiente es una versión escrita de mi exposición, transcrita y aumentada prácticamente diapositiva por diapositiva.

Introducción

Existen dos motivos para estar interesados en la demarcación entre la ciencia y la pseudociencia, que en general pudiéramos nombrar el motivo teórico y el práctico. En el primer caso, lo que se busca es completar el marco teórico de una cuestión mayor, que es la definición de la ciencia y, más ambiciosamente, del conocimiento. Desde el punto de vista práctico, quisiéramos tener herramientas para poder tomar mejores decisiones en nuestras vidas cada vez que se nos presente un conocimiento con la etiqueta de "científico". El prestigio de la ciencia es algo buscado por quienes pretenden persuadir a otros de la veracidad de sus ideas o la eficacia de sus productos y uno debería estar preparado para distinguir entre lo genuino y las imitaciones. Si esto parece algo remoto a la vida diaria, considere que se hacen declaraciones de tipo científico rutinariamente acerca de los siguientes temas, entre otros:
  • Salud: tratamientos para todo tipo de padecimientos, desde cáncer hasta estrés, se presentan como basados en ciencia. Algunos son científicos y otros no.
  • Derecho: no toda la evidencia es igual de importante en un caso criminal: considere el peso que se le da a un testimonio comparado con una prueba de ADN que lo contradice. 
  • Medio Ambiente: distintos puntos de vista se presentan como científicos o no en torno a temas sumamente importantes, como el calentamiento global o los cultivos transgénicos.
  • Educación: lo que los jóvenes aprendan va a determinar sus herramientas para enfrentarse al mundo, y quisiéramos que estén preparados para enfrentarlo como realmente es y no una versión fantasiosa.
  • Periodismo: basta ver las noticias todos los días para ver el choque entre diferentes "expertos" sobre acontecimientos locales e internacionales para darse cuenta que alguien tiene que estar muy, muy equivocado.

Definiciones

Comenzando por lo más básico, el diccionario de la RAE define a la Ciencia así:
Ciencia: Conjunto de conocimientos obtenidos mediante la observación y el razonamiento, sistemáticamente estructurados y de los que se deducen principios y leyes generales con capacidad predictiva y comprobables experimentalmente.
Hasta ahí suena todo bien, pero más adelante veremos que no es tan sencillo en la realidad. Entonces, ¿qué es la pseudociencia? En esto, la RAE no es muy útil:
Pseudocientífico: falsamente científico.
Haciendo un corto viaje a la Stanford Encyclopedia of Philosophy, encontramos algo mucho más útil. Voy a ser algo audaz y resumiré el artículo completo sobre el tema (que vale la pena leer en sí) en unos puntos breves:
La pseudociencia es una ciencia impostora. Es una colección de creencias pertenecientes a una doctrina no-científica cuyos promotores 1) quieren hacer pasar como si fuera científica o 2) presentan como una alternativa a la ciencia. Usualmente los promotores de la pseudociencia oscilan entre ambos puntos, frecuentemente cambiando de postura según el argumento que estén teniendo en ese instante.
¿Cuál es el problema?

Uno pudiera pensar que, teniendo la información anterior, sería cuestión solamente de ver cuáles áreas de estudio cumplen con las definiciones y cuáles no, y terminamos. Resulta que esto ya se ha intentado por muchas personas y no es tan fácil como quisiéramos. La situación actual es más o menos ésta:
  • hay consenso sobre muchos casos particulares de pseudociencias que son obvios.
  • No hay consenso sobre los criterios generales que unen a esos casos particulares.
  • La pseudociencia es difícil de definir porque la Ciencia es difícil de definir (a pesar de los diccionarios). Cada una de las palabras en la definición de Ciencia arriba citada es debatida extensamente incluso ahora mismo y el área que se dedica al estudio de la cuestión, que es la Filosofía de la Ciencia, está sumamente activa y en desarrollo constante.
La Ciencia es complicada

Cuando digo que la ciencia es difícil de definir, a lo que me refiero es que elaborar criterios que capturen todos los casos indudables de ciencia (física, química, biología, etc.) resulta en recetas simplistas o, por el contrario, en manuales interminables de reglas, excepciones, y excepciones de las exepciones. Para poder mantener el nivel de este texto en "Introducción Práctica", voy a tener que echar mano de la audacia otra vez, con perdón de los estudiosos rigurosos del tema, y dejaré un breve resumen de toda la Filosofía de la Ciencia y algunos de sus personajes en unos pocos puntos:
  • Falsabilidad: Las teorías científicas pueden, en principio, ser refutadas por evidencia nueva (Popper). Si no se puede plantear un escenario hipotético que demuestre que una idea es falsa, entonces no es científica, pues es tautológica o está mal definida y se ajusta a lo que sea. En otras palabras, para que una teoría sea científica ésta debe comprometerse a un resultado y decir, "Si tengo razón acerca de que X funciona así, también deberíamos observar que Y. Si Y no se cumple, entonces estoy equivocado." Si una teoría no se compromete a nada, no es científica. Por ejemplo, cada vez que una teoría de conspiración se topa con un problema, el conspiranóico mueve la portería de lugar y dice "¡Ajá! La conspiración es aún mayor de lo que pensé. ¡Los reptilianos alienígenas han borrado sus huellas para hacerme quedar mal!"
  • Paradigmas: Una vez que una teoría funciona se usa para resolver problemas, sin que necesariamente se busque desprobarla (Kuhn). En la práctica, en la Ciencia no se anda para un lado y para otro tratando de probar ni desprobar nada. Más bien, la mayor parte del tiempo se usan herramietas que ya están bien establecidas para sacarles jugo y resolver problemas prácticos, sin preocuparse realmente por formular hipótesis falseables.
  • Comprobabilidad: Las teorías se fortalecen cuando tienen éxito ante los intentos de falsificarlas (Sokal & Bricmont). La falsabilidad por sí sola ignora el hecho de que las predicciones que surgen de una teoría pudieran estar bien o mal. Cuando están mal, pues la teoría es refutada pero, ¿cumplió con ser "científica", según el criterio? Más impresionante es cuando una teoría pudiera estar equivocada, se pone a prueba, y sale airosa. Entonces la teoría se fortalece y gana puntos en el camino a ser Ciencia.
  • Progreso: los programas de investigación son científicos si continuamente proponen y comprueban conocimiento nuevo. Un programa de investigación está viciado si solamente explica cosas que ya se saben (Lakatos).
Si me preguntaran a mí, yo diría que la Ciencia es un proceso lógico-deductivo para obtener conocimiento, y que este proceso está necesariamente anclado a la evidencia física, que es la única evidencia que debería tomarse en cuenta. (Esto me ha valido miradas raras muchas veces, aunque me parece trivial.) Esta visión de la Ciencia es muy flexible e incluye a muchas áreas de estudio que buscan conocimiento aparte de las ciencias tradicionales, como por ejemplo la Historia. Los historiadores trabajan con evidencia física (lugares, documentos, ciencia forense, videos, audios, etc.) y la usan para reconstruir escenarios específicos que describen y explican hechos del pasado. Por ejemplo, si construyeran una versión acerca de la causa de muerte de un personaje histórico basada en testimonios escritos de la época, pero si después se realizara alguna prueba forense que contradijera los testimonios, pues tirarían su versión a la basura y harían otra que se ajustara mejor a la mejor evidencia. Este tema da para mucho qué escribir, pero quiero llegar a la parte práctica pronto y lo voy a tener que dejar para otra ocasión.

Casos difíciles vs. Casos fáciles

Hacer Ciencia es un proceso de muchos pasos, y no está claro cuál es la frontera entre cada uno, ni si todos los pasos son necesarios para cumplir con los criterios de la sección anterior. De nuevo si me preguntaran a mí, la Ciencia es ante todo una forma de buscar conocimiento. Entonces caemos necesariamente a preguntar qué es el conocimiento y ahí es donde las cosas se vuelven interesantes. En el mundo real, inclusive los casos más incontrovertibles de Ciencia en acción constan de partes que, por sí solas, quizá no veríamos como científicas.


Por ejemplo, un comité de expertos puede decidir darle dinero a un proyecto de investigación o no. Si dejamos de lado los casos de interés personal, corrupción, etcétera y suponemos que este comité está solamente interesado en financiar los proyectos más prometedores, sus decisiones están afectando el conocimiento que se pudiera obtener (o no). Decidir qué investigación vale la pena ya supone que saben algo de los potenciales méritos o beneficios de ésta, quizá basándose en la experiencia de financiar proyectos anteriores y los resultados que se obtuvieron ("¿Quieren dinero para otra prueba de la Relatividad General? ¿Cuántas veces tienen que repetirnos que Einstein tenía razón?"). A lo que voy es: ¿es el proceso de financiamiento de proyectos de investigación científica en sí un proyecto científico?

Otras preguntas no triviales en esta categoría pudieran ser las siguientes:
  • ¿Las explicaciones científicas que resulten ser equivocadas son ejemplos de pseudociencia, o son solo parte del proceso? 
  • Cuando hay una ciencia legítima pero que está en su estado inmaduro, ¿los errores inevitables que comete son pseudociencia? 
  • Si hay un argumento matemáticamente perfecto que no aterriza a una observación física posible de realizar, ¿eso es pseudociencia?
  • Si hay distintas explicaciones para un mismo fenómeno, ¿cúal es el criterio para decidir cuál es la explicación mejor? 

Las buenas noticias...

Afortunadamente, las sutilezas que estudia la Filosofía de la Ciencia suelen estar a muchos niveles de sofisticación por encima de la necesaria para identificar los casos "fáciles" de pseudociencia. Como dijo el juez Potter Stewart en la Suprema Corte de Estados Unidos acerca de la pornografía, aunque sea difícil de definir rigurosamente, uno la reconoce cuando la ve. Esto es gracias a las características tan descaradas que presenta, entre las cuales resalta ante todo la deshonestidad intelectual y un rechazo a adoptar métodos para contrarrestarla. Esta deshonestidad no necesariamente es dolosa: basta con ser ignorante de los sesgos cognitivos que los humanos tenemos de manera natural. La inmensa mayoría de los charlatanes son, sin duda, sinceros.

En la ciencia se ha aprendido la dura lección de que los humanos no somos suficientemente listos ni honestos para entender al mundo solamente echándole ganas. Por eso la ciencia ha desarrollado métodos de control de calidad para detectar esta deshonestidad en sus distintas formas, como:
  • Falacias (errores de razonamiento)
  • Fraudes (datos deliberadamente inventados)
  • Sesgos cognitivos (parcialidad)
  • Falsos positivos (correlación vs. causación, coincidencias, errores metodológicos)
Los controles no son perfectos y a veces se cuelan algunas cosas, pero son muy efectivos a largo plazo. Entonces, la estrategia para estudiar y diagnosticar la pseudociencia (a un nivel introductorio práctico) es usar la honestidad intelectual como criterio. Los casos difíciles se mantienen así porque la búsqueda sincera del conocimiento es complicada, pero el diagnóstico de los casos fáciles se vuelve trivial. Como la pseudociencia es por definición una ciencia impostora, y ser impostor es deshonesto, pues podemos buscar violaciones a la honestidad intelectual usando los filtros básicos que ha desarrollado la ciencia. Unos pocos ejemplos de estos filtros son:
  • Escepticismo
  • Estudios controlados
  • Arbitraje por colegas/competidores
  • Transparencia en los métodos, argumentos y datos
Herramientas prácticas

El escepticismo es la herramienta básica y confiable para enfrentar casos fáciles de demarcación, pero el término tiene distintos significados:
Antiguo: dudar inclusive de lo más evidente, resultando en la desesperanza de poder obtener conocimiento alguno.
Moderno: creer pero siempre en proporción a la evidencia.
Negacionista: impostor del escéptico moderno que ignora, niega, distorsiona o falsifica la evidencia por razón de su agenda ideológica.
El sentido útil para hacer ciencia y detectar pseudociencia es el moderno, mientras que los otros sentidos oscurecen el diálogo y en general son enemigos del proceso científico.

El escéptico usa el Pensamiento Crítico, que es tanto un conjunto de habilidades como una disposición a aplicarlas. No significa pensar para criticar, sino pensar usando criterios. El pensamiento crítico consta de dos elementos: 1) un conjunto de habilidades y conocimientos sobre cómo razonar y 2) una disposición a utilizar estas herramientas con constancia y, ante todo, a usarlas con nosotros mismos. La primer parte es fácil y consiste concretamente en el estudio de lógica básica (falacias formales e informales, cómo reconocer un argumento válido, conocimiento de las maneras en las que los humanos hacemos trampa al razonar). La segunda parte es la difícil, pues es sencillo (¡y hasta divertido!) detectar los errores de razonamiento en los demás, pero detectar los errores propios requiere gran esfuerzo y dedicación. Y son estos errores en nuestro propio razonamiento los que precisamente nos llevan a creer cosas irracionales.

En este punto vale la pena hablar acerca de lo que significa "tener una mente abierta", pues pareciera ser una virtud opuesta al escepticismo. Si tener una mente abierta significara creer cualquier cosa, pues sería incompatible con el escepticismo pero también con la realidad sea cual sea, pues uno acabaría creyendo cosas contradictorias. Está implícito en esto que tener una mente abierta implica que hay grados de apertura, y un cierto mínimo de incredulidad es necesario. Generalmente en este punto se dice que uno está dispuesto a cambiar de parecer si se le presentan buenas razones para hacerlo. ¿Pero cuáles son las buenas razones?

En esta cuestión me parece útil el análisis del filósofo Peter Boghossian en su libro A Manual For Creating Atheists. ¿Cuándo debería uno cambiar de parecer? Si yo me comprometo a cambiar de parecer acerca de una cuestión, alegando tener una mente abierta, ¿cómo puedo verificar que esto realmente sea el caso? ¿Puedo evaluar la apertura de otras personas simplemente preguntándoles? ¿Qué tan rígidos deben ser mis estándares de evidencia?

Peter Boghossian
Boghossian da una manera de hacerlo: Imaginemos las condiciones que, de cumplirse, nos harían reconsiderar nuestra posición. Esto sirve para darnos cuenta de qué tan convencidos estamos de nuestra posición, y qué tan excepcional tendría que ser la evidencia que nos haría cambiar de parecer. En vez de pensar "¿Qué demostraría que tengo razón?", deberíamos pensar "¿Qué demostraría que estoy equivocado?" Siguiendo el principio de la proporcionalidad de la evidencia que caracteriza al escéptico moderno, esta evidencia tal vez sea la opinión de un experto, o un estudio con ciertas características, o verlo tú mismo, o lo que sea, según la creencia que se esté evaluando. Pero debe ser algo concreto que uno mismo imagine y que, de cumplirse, haría que cambie de parecer.

Y esto puede usarse con otras personas también. Si un tío loco dice que cree que los ataques del 11 de septiembre fueron un auto-atentado por parte del gobierno de EU, yo pudiera decir: "Interesante. ¿Cómo se vería un ataque terrorista con aviones usados contra edificios, si no fuera un auto-atentado? ¿Qué características tiene un ataque genuino que no están presentes aquí?" Este tipo de diálogo es largo y requiere mucha paciencia (la cual usualmente yo no tengo), pero es la manera más confiable de tener conversaciones productivas con la gente irracional, en vez de solamente intercambiar monólogos acerca de quién es más ingenuo.

Volviendo a la detección de la pseudociencia, algunas herramientas prácticas que ahorran mucho tiempo son las siguientes, sin orden particular:
Carl Sagan
  • Estudiar lógica: falacias formales e informales. Tan solo con saber cómo reconocer un silogismo válido y algunas de las falacias informales más comunes pueden ser la diferencia entre creer por completo una charlatanería o darse la vuelta.
  • Ley de Sagan: Las declaraciones extraordinarias requieren evidencia extraordinaria. No es lo mismo decir que tengo un perro en mi casa, que decir que tengo un cocodrilo. La "evidencia" que se pida para cada una de estas proposiciones debe estar en proporción su impacto.
  • Técnica de Feynman: pedir que te expliquen sin usar las palabras sofisticadas o que las definan primero (energía, cuántico, epigenética, fuerza, qualia).
  • Navaja de Occam: no complicar las explicaciones más de lo necesario. Antes de proponer una explicación complicada a un problema, hay que comprobar que las explicaciones más sencillas realmente no sean suficientes. (Esto se caricaturiza diciendo que la explicación más sencilla tiende a ser la correcta, pero eso es entender mal la Navaja.)
  • Navaja de Hanlon: no atribuir a la malicia lo que se explica mejor por la incompetencia (es un caso particular de la Navaja de Occam). Ser un conspirador perverso es difícil: requiere malicia, intención, planeación, muchas mentiras, sobornos y múltiples crímenes y cómplices. Pero ser idiota es muy fácil para la mayoría de la gente, y especialmente cuando están en posiciones de poder.
  • Hacerte amigo de un experto. De veras, hay mucha gente (¡sobre todo estudiantes de posgrado y recién doctorados!) que realmente sabe cosas y estaría feliz de sentir que es de utilidad para alguien en el mundo real. Contactarlos es fácil a través de las páginas de muchas universidades y uno que otro blog.
A continuación haré un breve recuento de algunos ejemplos de la deshonestidad intelectual en acción en casos concretos. Esta no pretende ser una lista exhaustiva de pseudociencias ni los errores que cometen, sino una muestra ilustrativa de casos fáciles típicos. 

Ejemplo 1: falta de evidencia rigurosa

Mencionamos arriba los estudios controlados. Estos se refieren a "experimentos" donde se pone a prueba un tratamiento para algún mal, pero manteniendo distintos grupos de pacientes que saben distintas cosas acerca del tratamiento, y dando tratamientos distintos pero que parecen iguales. Por ejemplo, si quisiéramos poner a prueba un tratamiento homeopático, distribuiríamos entre un grupo grande de pacientes una mezcla de remedios genuinos y falsos, pero sin decirle a los participantes cuál es cuál. Podemos agregar más rigor si evitamos decirle a los doctores cuál es cuál también, identificando a cada paciente y cada botellita de chochos solo por un número. Si existe un efecto terapéutico verdadero, los pacientes que recibieron los tratamientos genuinos mostrarán mejorías estadísticamente significativas. Este tipo de estudios, en los que ni los participantes ni los ejecutores saben cuál tratamiento es genuino y cuál es inerte se llaman estudios de doble control.

Fuente

Fuente
Las pseudociencias médicas como la homeopatía y la acupuntura siempre fallan cuando estos estudios se ejecutan de manera rigurosa por grupos de investigación competentes. 

Ejemplo 2: marcos teóricos incoherentes

Algunas ciencias han avanzando tanto que se han alejado por completo de lo que a uno le pareciera intuitivo. Sin embargo, frecuentemente el problema es que los humanos simplemente no somos muy buenos para razonar y, por lo tanto, nuestras intuiciones realmente no son muy confiables. Pero hay casos de ideas transparentemente incoherentes que son así no por la sofisticación, sino por la incompetencia de quienes las crearon. La homeopatía es uno de estos casos, en las que un charlatán bien intencionado en el siglo XIX se sacó de la manga que 
  1. Lo similar cura a lo similar.
  2. Las concentraciones diluídas son las más potentes.
No se ofreció ningún razonamiento para ninguna de estas dos proposiciones, y hasta la fecha no existe ningún mecanismo físico plausible para cualquiera de las dos. Más bien, son contradecidas por la física y química bien establecidas, que son las competentes para estudiar los fenómenos microscópicos que se verían involucrados. No solamente hay una carencia de estudios que demuestren que la homeopatía funcione—es que literalmente todos los experimentos hechos en la física y química hasta ahora la contradicen. Para un resumen reciente de estos resultados pueden ver aquí.

Ejemplo 3: apropiación inepta de Ciencia legítima

Esto sucede cuando ideas y términos científicos son utilizados de manera incompetente: magnetismo, energía, física cuántica, relatividad, genética...
Deepak Chopra, culpable de los puntos 1 y 2.

Generalmente sigue alguno de dos patrones de razonamiento espurio:
  1. Yo creo X, que me es misterioso. La mecánica cuántica me es misteriosa también. Entonces, han de ser lo mismo.
  2. Nadie le creía a Einstein. Nadie me cree a mí. Por lo tanto, soy como Einstein.
La técnica de Feynman descrita arriba es una manera efectiva de desenmascarar a charlatanes que usan este tipo de tácticas. Siempre que se usen tecnicismos de cualquier tipo por alguien que te quiere vender algo hay que investigar qué significan y, de ser posible, preguntarle a un experto (los autores de libros de autoayuda son expertos solamente en separar a la gente tonta de su dinero).

Ejemplo 4: Falacia naturalista

Lo siento, pero lo natural en general no es bueno. La Naturaleza está llena de bichos, inundaciones, terremotos y hasta plantas venenosas que te van a matar. Los avances de la medicina moderna han sido gracias a interrupciones del orden natural de las cosas y no de su cumplimiento. Uno no puede, a partir de cómo son las cosas, deducir como deberían ser. Un ejemplo de esta falacia en acción es toda la industria de alimentos orgánicos, que se dedica a vender productos menos nutritivos a mayores precios con el pretexto de que la biotecnología es malévola. Si quieren saber más, escribí un artículo bastante detallado sobre ese tema también.

Ejemplo 5: Estándares deliberadamente bajos

Las revistas arbitradas y los estudios controlados presentan obstáculos insuperables para la charlatanería común. La solución de los científicos impostores a este problema es sencilla: hacer sus propias publicaciones de sus propios estudios, evaluados por sus propios expertos falsos. Cuando se les exige que demuestren evidencia de que sus tratamientos funcionan, se citan a sí mismos:



Ni siquiera pueden publicar en Wikipedia, que ha logrado imponer estándares relativamente altos para las referencias permitidas en sus artículos. Ante una petición por parte de un grupo de Psicología Energética de permitirles usar sus propias fuentes, el director de Wikipedia, Jimmy Wales, les respondió tajantemente que no permitiría charlatanería en su sitio:


Ejemplo 5: Incomprensión del efecto placebo

Mencioné antes los remedios "inertes" usados en los estudios controlados. Estos remedios son técnicamente conocidos como placebos, y son sustancias que se sabe de antemano son inertes y no tienen ningún efecto terapéutico (pueden ser agua, pastillas de almidón sin nada, o chochos). Se administran para poder diferenciar los efectos curativos reales de muchos otros fenómenos que, en su conjunto, se conocen como efecto placebo.

El efecto placebo es una mejoría medible, observable o percibida en la salud o comportamiento que no se puede atribuir al tratamiento que se ha aplicado.

¡No es "mente sobre cuerpo"! Puede deberse a un sinnúmero de razones: un mal diagnóstico inicial, regresión a un estado "menos peor", condiciones que varían o mejoran por sí solas (dolores de cabeza, ansiedad), variabilidad en cómo la gente se evalúa a sí misma, y muchas cosas más. Si un estudio concluye que el efecto de un tratamiento es igual al de un placebo, eso es un resultado negativo, pues significa que no hay ningún efecto aparte de las condiciones azarosas que siempre se dan.  La gente realmente se siente mejor, pero no se debe al tratamiento.

Yo lo explicaría así: si algo funciona solo cuando te engañas a ti mismo, es porque no funciona.

*   *   *

La lista de impostores de la ciencia es larga y las formas de defraudar a otros y a uno mismo son incontables. Detectar la pseudociencia no es un ejercicio meramente académico: la gente gasta dinero y, en ocasiones, puede inclusive morir por utilizar tratamientos falsos (El sitio What's the harm? documenta casos de gente, incluyendo niños, que ha muerto por usar homeopatía en vez de tratamientos establecidos). Además, nos encontramos ante "expertos" que abogan por cómo nos deberíamos alimentar, o cómo resolver problemas existenciales como el calentamiento global (algunos simplemente niegan que haya algo por resolver). Afortunadamente, muchos casos particulares de pseudociencia son de fácil diagnóstico, si estamos preparados para admitir cuando estamos equivocados.

*   *   *
Algunos recursos:


Un debate útil para ver el choque entre la razón y la charlatanería es este, donde Sam Harris y Michael Shermer educan a Deepak Chopra y una Jean Houston:



ACTUALIZACIÓN 17 de julio de 2017: la charla salió bien y nuevamente quedé sorprendido por el número de personas que están interesadas y educadas acerca de estos temas. Hubo un caballero que jugó la carta del "¿y qué hay del amor y la espiritualidad?", pero el intercambio se mantuvo relativamente civil. Corregí algunos errores de dedo y redacción en el artículo y agregué uno que otro enlace.