jueves, 28 de abril de 2011

LA IDEOLOGÍA DE LA OBSERVACIÓN



En medicina, uno de los postulados del paradigma médico actual sería la existencia de entidades a las que hemos denominado enfermedades. Una vez aceptado este postulado, el trabajo de la ciencia médica se encamina a describir tales entidades y establecer sus causas. Las entidades nosológicas se convierten en nuestros compartimentos conceptuales, dentro de los cuales intentamos acoplar el fenómeno natural de la enfermedad. Si digo que este paciente tiene una angina de pecho solo puedo decirlo a condición de tener una idea previa de lo que es un ángor. Observar, es estructurar un modelo teórico. Cuando observo algo siempre tengo que describirlo, para lo cual debo utilizar una serie de nociones que ya tenía antes, referidas a una representación teórica, normalmente implícita.

La observación nunca es enteramente pasiva ya que está influida por factores como “mis teorias aceptadas previamente sobre la organización de la realidad” (mis paradigmas) o el contexto (nuestro entorno nos condiciona, influye en nuestro modo de mirar). Es decir, la observación es más bien una organización de la visión. Solo veré las cosas en la medida en que éstas se correspondan con un “cierto interés”; eliminaré de mi visión elementos que no forman parte de lo que observo, por que no son significativos o relevantes. La noción de observación “completa”, por tanto, no tiene sentido, ya que observar es siempre seleccionar y estructurar y, por lo tanto, abandonar lo que no se considera.

Cuando el médico se informa a través de la exploración física o mediante pruebas complementarias, no recibe esta información como una entidad exterior sino que está interpretando el mundo desde un universo común de lenguaje médico. Para observar siempre referimos lo que vemos a nociones previas. Una observación es una interpretación: es integrar determinada visión en la representación teórica que nos hacemos de la realidad. Esta construcción nunca es individual sino social, aparece en un contexto determinado, está socialmente institucionalizada

Lo que da a la observación una impresión de inmediatez es que no se cuestionan las teorías que sirven de base para la interpretación. Cuando palpo una hepatomegalia no cuestiono mi concepto de hepatomegalia porque entonces ya no tendré la sensación de observar sino de teorizar. Una observación será, por tanto, una manera de mirar el mundo, integrándolo en una visión teórica antigua y aceptada. Esa ausencia de elemento teórico nuevo es lo que produce el efecto “convencional” o “cultural” de observación directa de un objeto. Una observación no nforma de algo real en sí sino que es una descripción útil para un proyecto

Si las observaciones contienen siempre elementos de interpretación y de teoría, mal podríamos decir que la observación de la realidad es el “punto de partida indiscutible de la ciencia”. Las proposiciones empíricas que solo cuentan “lo que vemos” y que serían la base fundamental de todo conocimiento científico, son ya en parte proposiciones teóricas. La imagen del trabajo científico de acuerdo con el cual empezaríamos por recoger observaciones que expresaríamos con proposiciones empíricas indiscutibles en las que, seguidamente, trataríamos de encontrar proposiciones teóricas explicativas, es pura imagen de ficción. Lo que parece ocurrir es que en la práctica científica, en determinado momento, se consideran hechos empíricos ciertos elementos de una descripción, de acuerdo con el paradigma aceptado. Esos hechos empíricos no se cuestionan de momento.




Los objetos, por tanto, no están dados en sí, independientemente de todo contexto cultural. Sin embargo, no son construcciones subjetivas, en el sentido corriente de la palabra, es decir, individuales, sino que gracias a una manera común de verlos y describirlos, los objetos son objetos. No se puede describir el mundo según mi subjetividad, tengo que integrarme en algo más grande, más amplio, una institución social, es decir, una visión organizada admitida comunitariamente. En este caso, los médicos al observar la realidad y encontrar hechos, los incorporaríamos a una visión aceptada por la comunidad médica, es decir, la realidad clínica es objetiva en la medida en que es intersubjetiva.



No es nuestra finalidad negar la importancia de la objetividad sino que se trataría de tomar distancia del modelo artificial según el cual sería un solo individuo quien observaría objetiva e independientemente de cualquier contexto, de un modo absoluto, las cosas como son. Se trata de ofrecer un modelo, según el cual, la observación es una construcción social relativa a una cultura y a sus proyectos. "La objetividad de la ciencia no se basaría, contrariamente a lo que pensamos convencionalmente, en el espíritu de imparcialidad que creemos encontrar entre los hombres de ciencia, entre nuestros médicos, sino, sencillamente, en el carácter público y competitivo de la empresa científica" (POPPER, 1962).

Entonces, ¿Qué es lo objetivamente observable? Hay algo que hiere al sentido común cuando decimos que una célula vista al microscopio por un patólogo es un modelo teórico: para él la célula existe realmente. En efecto, una visión espontanea afirmaría que la célula existe realmente, pero en cuanto superamos cierta ingenuidad nos damos cuenta de que la célula no se manifiesta sencillamente por el microspcopio. Si fuera así habría que plantearse por qué los estudiantes preguntan con tanta frecuencia a sus profesores “¿Cómo hay que mirar para ver la célula?” Ciertamente, para ver la célula hay que mirar con una "rejilla de interpretación" que no siempre es evidente. Solo se han visto las células en el momento en que, de acuerdo con un estado de las interpretaciones teóricas, resultaba interesante considerar al mundo de esa manera. La célula no es una noción absoluta sino un artefacto, es decir, realizaciones del arte o la ingeniosidad humana.




Existe una ideología de la inmediatez científica. Existe una resistencia, a pesar de la contundencia de los análisis, a abandonar la idea de que observar es situarse pasivamente frente al mundo tal y como es. Enmascarando el carácter construido de toda realidad, persiste la imagen de la objetividad absoluta, independiente de todo proyecto humano. Es una forma de absolutizar la visión científica. En medicina, esta difuminación desemboca en una determinación de la acción que parecerá condicionada científicamente, protocolizada, estandarizada, objetivada. Y no. La observación puede llevar implícita mucha ideología.




Abel Novoa

lunes, 18 de abril de 2011

LOS ERRORES EN EL JUICIO CLÍNICO

La práctica clínica no es fácil debido fundamentalmente a la incertidumbre que maneja. Algunas cuestiones son resueltas esporádicamente por la investigación científica mientras que otras son imposibles de resolver. Entre estos dos extremos existe una enorme área de grises que es donde los médicos deben desarrollar su juicio clínico. Los juicios clínicos adecuados han sido valorados desde la época hipocrática y continuarán siendo importantes durante muchos siglos. Sin embargo los consejos prácticos para mejorar el juicio clínico no suelen encontrarse en el MEDLINE, en un libro de texto o a través de colegas. Una deslumbrante proeza diagnóstica no garantiza la excelencia profesional. El juicio clínico puede definirse como un ejercicio de razonamiento bajo condiciones de incertidumbre. Su rasgo esencial es que los médicos no toman decisiones ni basándose exclusivamente en la evidencia clínica ni basándose en razones arbitrarias. Por el contrario, el juicio clínico combina la teoría científica, la experiencia personal, la perspectiva del paciente así como otros rasgos.


La psicología cognitiva es una ciencia básica que explora la manera en que las personas razonan, hacen juicios o toman decisiones. La observación empírica demuestra una y otra vez que las personas se equivocan cuando se enfrentan con decisiones complicadas. Parece que esas equivocaciones no son aleatorias sino que los errores del razonamiento humano son predecibles; esto es, algunos errores se repiten sistemáticamente. De este modo, la psicología cognitiva podría ayudar a que el juicio clínico fuera más informado. Los clínicos eficaces parecen comprender de manera intuitiva la psicología de la toma de decisiones cuando ellos realizan juicios clínicos. Los médicos competentes utilizan muchas de las herramientas de la psicología cognitiva sin saber que existe un cuerpo de conocimientos debajo de sus intuiciones.


Los errores en el juicio clínico


1) Habilidades intelectuales básicas: los clínicos no siempre reconocen que se equivocan. El problema es que solemos evaluar muy mal nuestra propia actuación. Los estudios muestras que el 85% de las personas piensan que son mejores conductores que la media, contrariamente a las leyes estadísticas y de la probabilidad (Svenson, 1981). La razón de esta mala valoración es que los conductores son habitualmente ciegos a sus propios fallos que normalmente son mejor vistos por los demás. Una distorsión similar ocurre con los médicos debido a lo imperfecto del feedback que tenemos los clínicos, como ocurre con las causas de insatisfacción de los pacientes. La razón básica de los errores de juicio es que el cerebro humano es limitado. Todo sería más fácil si tuviéramos más memoria o inteligencia, pero esto no es posible. Aunque alguna de estas insuficiencias puedan ser suplidas por la tecnología, la toma de decisiones sigue siendo falible debido a nuestras limitaciones y la necesidad de tomarlas en un espacio corto de tiempo. Además los 1,5 kilos de cerebro deben ser utilizados para otras labores simultáneamente como la modulación de la personalidad y todas las demás labores cotidianas. De esta manera, los fallos en el juicio le ocurren a cualquier médico. Una fuente distinta de errores es el misterioso comportamiento de las leyes de la probabilidad (Tversky y Kahneman, 1974). Si consideramos a un médico que examina a un paciente con tos y que no encuentra alteraciones a pesar de tener un tumor de pulmón. Si el médico acaba diagnosticándolo, esta experiencia puede favorecer una sobre-estimación del talento del médico si el diagnóstico fue una casualidad más que una cuestión de habilidad. De manera general, existe una tendencia psicológica es asignar alto valor a nuestros éxitos a pesar de que se hayan debido al papel que juegan las leyes de la probabilidad (Redelmeier y Tversky, 1996).


2) Diligencia a la hora de examinar los propios errores: Un problema frecuente es la tendencia que tenemos a formarnos opiniones basándonos en las primeros datos y, una vez esta opinión está establecida, la resistencia a cambiar nuestra opinión incluso cuando obtenemos nueva información relevante. La investigación realizada en contextos no médicos sugiere que los expertos tienen una especial tendencia a mantener y perseverar en sus hipótesis iniciales y cambian de opinión con menos frecuencia de la que parece recomendable (Nisbett y Ross, 1980). Cambiar nuestras ideas es siempre desagradable puesto que supone reconocer que la idea inicial era incorrecta. Cambiar nuestras hipótesis iniciales en medicina es aun más conflictivo debido a la necesidad de explicárselo a los pacientes, familiares y colegas. Además surge una paradoja y es que el juicio clínico es tan apreciado que está cerca de ser incorregible. Una analogía puede ser como los abuelos consideran a sus nietos propios como más guapos, incluso aunque no exista un enlace genético (Durna et al, 1994). Por ello el amor que los abuelos tienen hace que sea difícil para ellos compararlos con otros niños, oír algo negativo de ellos o intentar disciplinarlos. Los mismos fallos ocurren cuando los médicos valoran sus propios juicios. Esta paradoja hace que los artículos sobre juicio clínico nos puedan parecer pretenciosos o algo que debe ser evitado.


3) Garantías ambientales: Una razón más para la reflexión es que el error puede estar favorecido por el auto-cumplimiento de profecías. Imaginemos un comité de trasplantes distribuyendo entre un grupo de candidatos un escaso número de órganos. La existencia de muchos candidatos y pocos órganos nos obliga a seleccionar tan solo a los posibles receptores ideales. El problema estriba en que el comité nunca sabrá a cuántos de los pacientes a los que no se les dio un órgano el trasplante habría sido un éxito. Estos pacientes acabarán desarrollando síntomas ominosos que quizás no hubieran ocurrido si hubieran sido trasplantados. Otro asunto importante es la consideración de la medicina moderna como una empresa colaborativa. La mayoría de los médicos son dependientes del trabajo de otros. De esta manera un juicio errado puede deberse a una mala valoración de los signos vitales, una mala lectura de pruebas radiológicas o un error al informar una muestra anatomo-patológica. Cada uno de nosotros debe analizar hasta qué punto se fía de otros y qué está dispuesto a hacer para comprobarlo (además de tener que valorar hasta qué punto se fía de su propio juicio). Aprender de la experiencia en estas circunstancias es más difícil debido a que las culpas son compartidas y nuestra tendencia a buscar culpas ajenas cuando detectamos un error.



Desde luego hay que decir que el juicio es un complemento pero nunca un sustituto del conocimiento. Un experimentado cirujano general que confíe exclusivamente en su experiencia y nunca lea la literatura puede ser brillante a la hora de diagnosticar una úlcera péptica recurrente pero nunca sabrá que podría haberla evitado si hubiera utilizado la terapia antibiótica. Más aun, un médico que no sea consciente de las limitaciones del juicio clínico puede no solucionar correctamente situaciones que si lo serían si conociera los adelantos científicos. Incluso las habilidades clínicas de Sir William Osler no impedirían que tuviere peores resultados que cualquier médico actual con todos sus conocimientos. Los errores son inherentes al juicio clínico porque son juicios realizados por humanos.



Tomado de Los problemas del juicio clínico: introducción a la psicología cognitiva como una ciencia básica más (Redelmeier DA, Ferris LE, Tu JV, Hux JE, Schull MJ CMAJ 2001;164(3):358-60)

Abel Novoa (MAbel)

sábado, 9 de abril de 2011

LAS CREENCIAS EPISTEMOLÓGICAS


Por Ortega sabemos que las creencias determinan nuestras vidas: “Las creencias constituyen la base de nuestra vida, el terreno sobre que acontece. Porque ellas nos ponen delante lo que para nosotros es la realidad misma. Toda nuestra conducta, incluso la intelectual, depende de cuál sea el sistema de nuestras creencias auténticas. En ellas vivimos, nos movemos y somos. Por lo mismo no solemos tener conciencia expresa de ellas, no las pensamos, sino que actúan latentes, como implicaciones de cuanto expresamente hacemos o pensamos. Cuando creemos de verdad en una cosa, no tenemos la idea de esa cosa, sino que simplemente contamos con ella

Las creencias epistemológicas serían, aquellas ideas, implícitas o explícitas, que tendríamos acerca de la naturaleza del conocimiento, del aprendizaje y de la práctica y que conformarían nuestro desempeño profesional. Hacer explícitas las creencias epistemológicas es fundamental para poder desarrollar el pensamiento crítico, para poder ser un buen docente o para tener un competente desempeño clínico; debería ser por tanto, un objetivo de la formación de los profesionales sanitarios conocer y desarrollar las creencias epistemológicas.
Me gusta mucho, por sencilla, la categorización de las creencias epistemológicas que realizó Perry tras entrevistar, desde 1950 y durante más de diez años, a alumnos de Harvard de diferentes cursos. Perry descubrió que los universitarios pasaban por etapas de desarrollo intelectual semejantes que podían ser categorizadas según las creencias que éstos tenían respecto al estatuto del conocimiento. El primero y menos desarrollado es el que llamó Dualismo”: en este estadio el sujeto posee mucha certeza de lo que se sabe y de por qué es cierto; todas las cuestiones tienen una respuesta única y sencilla y las autoridades (los libros, los superiores, los tutores, los líderes de opinión, etc…) serán, las que nos den dicha respuesta; la mejor manera de desarrollarse profesionalmente es mediante la acumulación de conocimiento a través de la memorización, puesto que los libros de texto y los profesores, son las autoridades; para obtener una respuesta adecuada a cualquier problema hay que conocer qué dicen las autoridades sobre ello. Perry distingue dos posiciones en este estadio: a) Dualismo básico. El mundo está claramente dividido en bueno/malo o verdadero/falso, y la autoridad, con la que el individuo se identifica, garantiza la verdad a cualquier respuesta y, un poco más avanzado epistemológicamente, b) Pluralismo pre-legitimado: el individuo percibe diversidad de opiniones pero las atribuye a autoridades mal preparadas o que quieren probar nuestros conocimientos; la incertidumbre, en cualquier caso, no es legítima. El segundo, “Pluralismo”: en este estadio se reconoce la diversidad y la incertidumbre; el sujeto toma conciencia de esta diversidad y, al principio, trata de acomodarla dentro de su epistemología dualista, pero pronto se ve desbordado y entiende que no todo es sabido, ni siquiera por las autoridades; en muchas áreas de conocimiento, incluso, no existe una única verdad. Perry distingue dos posiciones: a) Pluralismo subordinado. El sujeto es consciente de la diversidad de opiniones y acepta la incertidumbre como algo legítimo. Sin embargo, esta diversidad es concebida como temporal hasta que la autoridad encuentre la respuesta adecuada; b) Pluralismo correlacionado, relativismo subordinado o multipicidad: la actitud de los estudiantes en el estadio de la multiplicidad es “Todos tienen algo de cierto en sus opiniones” y “Cuando los expertos no conocen la respuesta, mi opinión es tan buena como la de otros”. En este estadio se cree que ninguna opinión puede estar totalmente equivocada, que cualquier solución es tan correcta como otra. Los individuos multiplicistas no ven nada criticable en los otros puntos de vista porque no hay diferencias entre ellos ya que todas las opiniones son igual de válidas. En el estadio de multiplicidad, la menor devoción a las opiniones de los expertos o autoridades así como el igualitario respeto hacia las opiniones de los demás, suponen un avance hacia formas de pensamiento independiente. Sin embrago, la actitud multiplicista nivela de manera no crítica todas las opiniones y no distingue entre razonamientos más o menos válidos que las justifiquen. El tercer estadio, más avanzado epistemológicamente que los dos anteriores, por el que pasaban algunos estudiantes de Harvard, lo llamó Perry, “Relativismo contextual”: aquel estadio donde uno reconoce que hay diferentes aproximaciones a los temas, que dichas aproximaciones no son igual de válidas en todas las situaciones y que el contexto es tanto una manera de validar el conocimiento como un tipo de conocimiento. El estadio relativista es un avance intelectual y moral respecto a la aceptación automática de cualquier opinión personal del estadio multiplicitario. En este estadio el sujeto se considera fuente de significado. Perry comprobó como en este estadio los estudiantes comienzan a examinar los diferentes puntos de vista mediante el análisis de los procesos de pensamiento desarrollados para llegar a ellos así como mediante el examen de los hechos y de los razonamientos que los apoyan; el estudiante es capaz de juzgar los diferentes puntos de vista y los razonamientos que los justifican. En el estadio previo multiciplitario, los estudiantes simplemente aceptaban los distintos puntos de vista de manera no crítica y automáticamente, sin juzgarlos. En el estadio relativista, los estudiantes comprenden la importancia de aprender procedimientos y criterios para evaluar los distintos puntos de vista como mejores o peores; para determinar la manera en que un determinado autor, por ejemplo, realiza inferencias; para examinar hasta dónde un punto de vista explora las consecuencias más profundamente que otro; para determinar una mayor categoría moral de un punto de vista respecto de otro. Perry distingue dos posiciones en este estadio: a) Relativismo correlacionado, en competencia o difuso: el sujeto percibe todo conocimiento y valor como contextual y relativo. Lo verdadero y falso puede decirse pero dentro de un contexto. El contexto y la propia persona se constituyen en “dadores de significado”. En esta posición se produce un cambio de paradigma: el sujeto deja de percibir todo como dado para hacerlo como construido. b) Compromiso previo: a pesar de que el sujeto percibe el conocimiento como relativo, contingente y contextual, ello no le satisface plenamente. En esta posición, el individuo percibe que necesita algún tipo de orientación o compromiso que lo guíe en el mundo. Es importante señalar que Perry encuentra sujetos para los que utilizar los puntos de vista y los criterios del estadio relativista es insatisfactorio ya que, en el fondo, prefieren la engañosa certeza de las autoridades y añoran la única respuesta correcta del estadio dualista. En algunas entrevistas, Perry descubrió lo que llamó regresiones debidas a los riesgos psicológicos e incertezas que trae consigo el estadio relativista. Cuando los estudiantes comenzaban a encontrarse demasiado incómodos psicológicamente con las decisiones a las que conducía el estadio relativista, Perry describe la utilización de tres maneras de regresión: (1) La temporización: significaría posponer el compromiso de decidir entre diferentes alternativas. (2) el encierro: sería una manera de volver al estadio dualista, normalmente mediante el recurso al “todo o nada”, “nosotros contra ellos” o la adquisición de posiciones extremas de corrección o equivocación. Las personas que regresan al estadio dualista requieren un enemigo, están llenos de quejas que lanzan hacia la postura opuesta a la suya propia. (3) El escape o la parálisis en la decisión sería otra manera de alienación que evitaría el enfrentarse con la complejidad y la incertidumbre que conlleva el estadio relativista. Una manera típica de escapar sería continuar profundizando en las distintas opiniones, aprendiendo cada vez más pero sin tomar una postura individual y propia, sin comprometerse (“la parálisis por el análisis”). El escape sería permanecer en el estadio relativista evitando el compromiso y posponiendo sacar las conclusiones propias. El último estadio lo llama Perry “Relativismo comprometido”: El siguiente escalón del desarrollo intelectual sería aquel donde se toman decisiones y eligen alternativas tras las exploraciones razonadas llevadas a cabo en el estadio relativista. El sujeto es capaz de construir su propio punto de apoyo y emitir juicios sabiendo que no hay respuestas universales. Por ejemplo, tomando una posición en un tema ético controvertido, como el aborto o el suicidio asistido, o una decisión clínica compleja, basándonos en valores que hemos elegido después de considerar todos los factores relevantes para el tema. El estadio de compromiso no sería un estadio final ya que Perry considera que el desarrollo intelectual y ético es un proceso recurrente; se repite a sí mismo. Desde este punto de vista, los temas nunca terminan; las controversias nunca se resuelven para siempre; los nuevos conocimientos reemplazan a los antiguos; los contextos y los valores cambian. Perry identifica tres posiciones: a) el sujeto inicia su compromiso en algún aspecto de su vida; b) el sujeto experimenta las implicaciones de su compromiso; c) el sujeto reafirma su identidad a través de sus compromisos y la expresa en su estilo de vida Perry destaca como los cuatro estadios pueden presentarse a un mismo tiempo en una persona dependiendo del contexto (la consulta, mi vida privada, mis opciones políticas..) o del área de conocimiento (moral, centífico, social, etc...). Habitualmente, cuando comenzamos a conocer cierta área de conocimiento, nos posicionamos en un estadio dualista, esto es, nos fiamos de los expertos y no nos atrevemos a hacer juicios de valor propios. Progresivamente, uno se mueve de un estadio a otro según se van adquiriendo conocimientos y experiencias, para llegar a determinar las conclusiones propias y hacer juicios independientes. El estadio dualista sería el “menos crítico”; el estadio en el que los sujetos basan su acción en creencias epistemológicas menos evolucionadas, más simples o naives. El estadio “de compromiso” se relaciona con individuos que actúan teniendo en cuenta las creencias epistemológicas más sofisticadas. Abel Novoa (MAbel)

sábado, 2 de abril de 2011

EL PENSAMIENTO CRÍTICO



Entre las virtudes más destacables del mundo antiguo se encontraban el conocimiento y la sabiduría. El conocimiento era necesario cuando las decisiones exigían instrumentos racionales, tales como las relaciones causa-efecto o medios-fines. La sabiduría suponía una forma de comprensión del mundo para aquellos casos en los que la racionalidad no era suficiente y en los que se confiaba en juicios. Con el tiempo, esta noción de sabiduría, como sustancialmente distinta del conocimiento, se ha ido desdibujando, y la modernidad ha traído consigo, sin que nos hayamos dado cuenta, otra noción, en la que un sabio es una persona con gran acumulación de conocimiento científico y con capacidad de utilizarlo lógicamente.


Existen varias razones que justifican la necesidad de recuperar la noción clásica de sabiduría (o pensamiento crítico), y adaptarla a nuestro mundo enloquecido: (1) el conocimiento acumulado actualmente por la ciencia experimental es tan inconcebible que es muy probable no contar con la mejor información posible en el momento necesario; (2) la complejidad de la práctica clínica, con determinantes de conocimiento, organización, profesionales, emocionales, éticos, personales o económicos hace de la práctica clínica un oficio imposible; (3) el desvalimiento epistémico de la clínica, ni una ciencia ni un arte, pero con elementos de ambos paradigmas; tampoco la experiencia pasada es siempre útil para guiar el futuro y nos vemos lanzados a inferir conclusiones haciendo generalizaciones que suelen revelar nuestros sesgos cognitivos y prejuicios. En definitiva, constantemente nos vemos abocados a emitir juicios razonables para los que nuestra experiencia, nuestro conocimiento o nuestra razón no se han preparado. Necesitamos más que nunca sabiduría, pensamiento crítico aplicable al contexto sanitario, no solo a la clínica, también a la gestión o la política sanitaria.


Podemos definir pensamiento crítico como aquel juicio dirigido y auto controlado que resulta de interpretar, analizar, evaluar y realizar inferencias a la luz de las mejores pruebas; incluiría la consideración conceptual, metodológica, criteriológica o contextual en la que se basa dicho juicio (APA, 1990) (esta reflexión acerca de la calidad del juicio de la última parte d ela definición de la APA se llama también metacognición y algunos autores la diferencian del pensamiento crítico). Es un pensamiento razonado y reflexivo, que se centra en qué pensar o hacer (Ennis, 1987). La propensión a implicarse en una actividad con un escepticismo reflexivo (McPeck, 1981). También ha sido definido como el arte de pensar sobre el pensamiento mientras se piensa en cómo mejorar el pensamiento y hacerlo más claro, más exacto o más defendible (Paul, 1992) La práctica reflexiva, de la que también hemos hablado y a la que hemos definido como el núcleo duro del profesionalismo, sería aquella que utiliza el pensamiento crítico para tomar decisiones en el contexto clínico. Las pruebas hasta ahora demuestran que el pensamiento crítico no se desarrolla espontáneamente como resultado de la maduración personal (Angelo, T. 1995). Parece pues que el desarrollo del pensamiento crítico sería un buen objetivo de la formación de un profesional sanitario


Mi admirado Dewey tuvo mucho que ver con el nacimiento de este concepto. La educación a finales del siglo XIX se decantó claramente por la ciencia en el curriculun dejando de lado a los clásicos humanistas y esto significaba, para Dewey, el triunfo de los flexibles métodos de investigación frente a la inflexibilidad y estatismo del humanismo clásico, amante, como la medicina todavía, del pensamiento especulativo metafísico. Nunca ocultó su preferencia por el método científico como el método de la inteligencia, su tendencia a hacer equivalentes el método científico con cualquier investigación o su convicción de que la reconstrucción de la educación se debía realizar desde el modelo de investigación científica. Dewey estaba convencido de que nuestra sociedad nunca estaría del todo civilizada hasta que los estudiantes se convirtieran en investigadores preparados para participar en una sociedad comprometida con la investigación como método fundamental para tratar los problemas.



Dewey era también psicólogo con lo que, en lo referente a cuestiones educativas, tenía una perspectiva doble. Su enfoque psicológico lo presenta en su obra Cómo pensamos donde nos muestra como los hombres al descubrir que se bloqueaba su conducta de una manera u otra ante las situaciones conflictivas eran capaces de diseñar una estrategia para resolver los problemas. Al reflexionar sobre las dificultades, dice Dewey, nos damos cuenta que damos cosas por sentado, que tomamos por verdaderas ciertas creencias y que tenemso que revisarlo. Es entonces necesario definir el problema, convertir los deseos en objetivos posibles, formularse hipótesis como procedimientos para conseguir los fines establecidos, imaginarse posibles consecuencias de las acciones derivadas de dichas hipótesis, y finalmente, experimentar hasta resolver el problema. Esta estrategia para la resolución de problemas, extraída de la descripción de la conducta humana cotidiana combinándolo con la investigación científica, va deslizandose de lo que es, descriptivo, a lo prescriptivo.

Fue en Cómo pensamos donde Dewey sentó la distinción entre lo que llamó pensamiento ordinario y pensamiento reflexivo que definía como aquel pensamiento que es consciente de sus causas y consecuencias. Conocer las causas de las ideas, es decir, las codiciones bajo las cuales se generan éstas, supone liberarnos a nosotros mismos de la rigidez intelectual y abrirnos el paso hacia una libertad intelectual basada en el poder de escoger entre diversas acciones y alternativas. Conocer las consecuencias de las ideas es conocer sus significados, que para Dewey, pragmatista y seguidor de Pierce, descansa sobre sus rasgos prácticos, es decir, los efectos que producen en nuestra práctica y en el mundo.



Una década después apareció la obra fundamental de Dewey, Democracia y educación donde enfatizaba la importancia de educar el pensamiento de los estudiantes si queremos tener una democracia valiosa. Dewey tuvo una considerable influencia. En 1963, Ennis publica en Harvard Educational Review "Una definición de pensamiento crítico", artículo destinado a aumentar la importancia del concepto para la educación, definiendo el término como "aquel pensamiento razonable y racional que nos ayuda a decidirnos sobre lo que hay que creer y hacer". Las habilidades cognitivas comenzaron a ser el centro de los objetivos académicos y desde la Universidad de Chicago, Benjamín Bloom y sus colaboradores publicaron su taxonomía de los objetivos educativos donde se realizaba una jerarquización de los mismos, estando la memoria en el primer escalón, y a medida que ascendíamos nos encontrábamos con la comprensión, el análisis, la síntesis y, en la cima, la evaluación. Para muchos, esto supuso el arranque del pensamiento crítico; la acumulación del conocimientos se había degradado al escalón más bajo y el pensamiento evaluativo había ascendido a la cúspide.


Abel Novoa (MAbel)