Saltar al contenido principal

Cognitivismo

Contexto

En esta sección, explico el cognitivismo. Sin embargo, conviene entender que la historia reciente de la psicología se puede dividir en dos periodos de 50 años cada uno.

  1. Durante la primera mitad, el conductismo dominó la disciplina,
  2. La segunda domina el cognitivismo, enfatizando los procesos mentales superiores y utilizando la metáfora del ordenador para entender tanto el comportamiento.

La psicología cognitiva, también conocida como cognitivismo, es una rama de la psicología que se centra en el examen de los procesos internos que intervienen en el conocimiento y el pensamiento.

Se ocupa del estudio detallado de cómo las personas procesan información; esto abarca la adquisición, representación, transformación, almacenamiento y recuperación de la información del mundo que nos rodea.

A diferencia del conductismo, que se limitaba a relaciones externas de estímulos y respuestas sin considerar procesos mentales internos, el cognitivismo pone énfasis en los procesos cognitivos y postula que para entender la conducta es esencial considerar las representaciones mentales. Estas representaciones pueden ser simples, como las asociaciones entre estímulos en el condicionamiento clásico, o complejas, como los mapas mentales o conceptos abstractos.

El cognitivismo, por lo tanto, ofrece una perspectiva más completa de la mente humana, considerando el pensamiento, la memoria, el aprendizaje y la resolución de problemas como procesos fundamentales para la comprensión de la conducta.

Motivos del auge del cognitivismo

El auge del cognitivismo se atribuye, generalmente, a dos causas, la crisis del conductismo y el auge de la computación.

La crisis del conductismo

El conductismo, que una vez dominó el campo de la psicología, comenzó a declinar debido a varias insuficiencias teóricas y empíricas. Algunas de las causas más notables incluyen:

  1. Insuficiencia explicativa del asociacionismo: El modelo asociacionista se quedó corto al intentar explicar la totalidad del comportamiento humano, especialmente fallando en dar cuenta de los procesos psicológicos complejos.
  2. Interpretación inadecuada del evolucionismo: Los conductistas aplicaron de manera imprudente e ilegítima generalizaciones sobre las leyes del aprendizaje basándose en datos obtenidos de una o pocas especies, lo cual fue posteriormente refutado por etólogos, fisiólogos y psicólogos.
  3. Cuestionamiento del positivismo lógico: Nuevos filósofos de la ciencia como Kuhn, Lakatos, Popper, Feyerabend y Toulmin, cuestionaron los fundamentos del positivismo lógico, que era la base epistemológica del neoconductismo.
  4. Conflictos entre enfoques teóricos: Hubo una falta de consenso y confrontaciones continuas entre diferentes enfoques teóricos dentro del conductismo, lo cual impidió la creación de una teoría unificada del aprendizaje, a pesar del deseo de lograrla.

Estas limitaciones evidenciaron que el conductismo no podía sostenerse como el marco teórico predominante para explicar la totalidad de la conducta y los procesos mentales.

Mapas cognitivos

Uno de los primeros defensores del enfoque cognitivo en el aprendizaje fue Edward Tolman, que realizó estudios con ratas que debía aprender el recorrido en laberintos complejos en su artículo de 1948 (Mapas cognitivos en las ratas y los seres humanos).

Tolman incluía en el estudio del aprendizaje dos ideas que nadie más defendía en aquella época: la intencionalidad o propósito de la conducta y la cognición. Tolman defiende que el comportamiento no puede analizarse sin tomar en consideración las metas que dan sentido a los actos o comportamientos concretos.

Una rata que recorre un laberinto complejo no está aprendiendo una secuencia de respuestas motoras, sino desarrollando un mapa cognitivo, es decir, una representación mental del recorrido del laberinto. Dicho aprendizaje no se mostraría en ese momento, sino cuando el animal debiera utilizar lo aprendido (aprendizaje latente) ante la eventualidad, por ejemplo, de que el camino aprendido estuviera bloqueado. Es decir: se produce un aprendizaje latente que solamente se manifiesta cuando se da la oportunidad para ello (cuando la rata puede obtener un refuerzo usando ese mapa cognitivo).

Insight (aprendizaje intuitivo)

Los estudios de Wolfgang Köhler con chimpancés, realizados en los años 1920, mostraban que resolución de problemas por parte de los animales evidenciaba una flexibilidad en su aprendizaje que debía depender de variables cognitivas que a veces han sido denominadas como “aprendizaje intuitivo”, “perspicacia” o “aprendizaje por insight”.

Los chimpancés resuelven tareas de forma eficiente, no mediante ensayo y error, sino visualizando la solución de antemano y ejecutándola directamente para obtener la fruta, indicando así capacidad de planificación y cognición.

Las soluciones de los chimpancés tienen tres aspectos críticos: son repentinas, transferibles y están disponibles, una vez descubiertas. En lugar de conductas de tipo ensayo y error, estos animales se forman una representación mental del problema, manipulan sus componentes hasta que dan con una solución, y entonces la aplican al mundo real.

El auge de la computación

La revitalización del interés en los procesos mentales no solo fue impulsada por cuestionamientos internos al conductismo, sino también por avances tecnológicos y teóricos significativos. George Boole, con su lógica binaria, allanó el camino para la cibernética, una precursora del pensamiento computacional. Esta lógica se convirtió en la piedra angular de los diseños electrónicos gracias a Claude Shannon, quien incorporó el álgebra booleana en la creación de circuitos. Alan Turing, inspirándose en estos fundamentos, concibió una máquina ideal que transformaría cualquier proceso descriptible en una secuencia de operaciones claras y precisas, estableciendo así la base de la computación moderna.

La analogía entre la lógica binaria y la actividad neuronal fue explorada por McCulloch y Pitts, que vislumbraron una similitud funcional entre los circuitos lógicos y las redes neuronales. Norbert Wiener expandió esta visión, sugiriendo que el pensamiento humano podría comprenderse y replicarse mediante la simulación de sistemas neuronales. Las contribuciones en campos como la gramática generativa de Noam Chomsky también alimentaron la noción de que la mente podría ser entendida en términos computacionales.

Estos desarrollos convergieron en la psicología cognitiva con una idea transformadora: la mente humana es esencialmente un sistema computacional. Esta perspectiva permite trazar un paralelismo entre la mente y la computadora, argumentando que ambas funcionan de manera análoga, independientemente de sus respectivos sustratos físicos. Se abrazó la idea de que los procesos mentales pueden ser descritos como algoritmos y programas computacionales, marcando un cambio paradigmático desde las explicaciones conductistas hacia una comprensión más rica de la cognición.

Esta nueva psicología de la mente consideraría lo mental como un nivel de análisis independiente, no reductible a la física, pero en el que los procesos mentales pueden ser simulados mecánicamente, como evidenciaban palmariamente unos ordenadores cada vez más versatiles y capaces.

Origen del cognitivismo

El año 1956 marca el inicio de la Psicología Cognitiva, destacando por la publicación de obras fundamentales en el campo. George A. Miller presentó su estudio sobre la capacidad de procesamiento humano, limitada a 7 (±2) ítems, en "El mágico número siete más menos dos".

Noam Chomsky expuso su enfoque revolucionario sobre la lingüística formal, preludio de "Estructuras sintácticas". Newell y Simon introdujeron un programa informático precursor en la resolución de teoremas en "The logic theory machine", demostrando el aporte de la cibernética y la informática a la psicología.

Además, Bruner, Goodnow y Austin lanzaron "A study of thinking", una obra clave en el estudio del pensamiento y la adquisición de conceptos, consolidando el surgimiento de la psicología cognitiva.

La nueva psicología cognitiva se basa en cuatro supuestos fundamentales para el estudio de la mente:

  1. Presupuesto mentalista: Este enfoque afirma que no es posible entender o explicar la actividad humana sin recurrir a constructos mentales internos. Se hace necesario el uso de representaciones mediante símbolos, reglas o imágenes para abordar científicamente los procesos cognitivos.
  2. Presupuesto computacional: Según este principio, la actividad mental funciona como un sistema de procesamiento simbólico de propósito general. Esto significa que la mente procesa símbolos de una manera similar a como lo hacen los ordenadores, bien sea de forma idéntica (en una interpretación "fuerte" de la metáfora computacional) o de manera análoga (en una interpretación "débil").
  3. Presupuesto restrictivo: Este supuesto reconoce que el procesamiento de información en los seres humanos está sujeto a diversas limitaciones internas. Los procesos cognitivos se desarrollan en un tiempo determinado y la mente opera con una capacidad limitada, enfrentándose a límites temporales, estructurales y de recursos.
  4. Presupuesto funcionalista: Este principio sostiene que, aunque la actividad mental está influenciada por un sustrato neurológico, no está completamente determinada por este ni puede explicarse exclusivamente en términos neurológicos. La mente se entiende como un nivel de descripción distinto del físico, subrayando que no se identifica con el cerebro, sino con el resultado de su organización funcional.

Estos supuestos ofrecen una estructura teórica que permite a la psicología cognitiva explorar los procesos mentales de una forma integral y multidimensional, reconociendo las capacidades y limitaciones del procesamiento cognitivo humano.

Alternativas teóricas

Dos enfoques principales del aprendizaje: el aprendizaje entendido como asociación o entendido como reestructuración.

Fenómenos básicos que sobre el pensamiento y la resolución de problemas

Conceptos y categorías

El pensamiento se manifiesta en dos formas principales: pensamiento proposicional y pensamiento en imágenes.

  • El pensamiento proposicional implica el flujo interno de oraciones que expresan enunciados, utilizando conceptos de manera específica.
  • El pensamiento en imágenes se refiere a las imágenes mentales que visualizamos internamente.

Los conceptos son fundamentales para el pensamiento, ya que clasifican objetos, personas o eventos en categorías basadas en propiedades comunes. Por ejemplo, el concepto de "gato" incluye entidades con características como tener cuatro patas y bigotes. Estos conceptos simplifican la complejidad del mundo, permitiéndonos manejarlo en unidades comprensibles y realizar inferencias sobre propiedades no observables directamente.

La categorización es el proceso de asignar un objeto a un concepto, basándose en propiedades visibles para inferir otras no visibles. Además, existen conceptos que describen actividades, estados y abstracciones, ampliando nuestra capacidad de comprensión más allá de lo directamente perceptible.

Prototipos

Un concepto se puede dividir en dos componentes:

  • El prototipo: la representación más típica, 🪑.
  • El núcleo: los rasgos que delimitan la categoría, "objeto que sirve para sentarse".

Un prototipo es el conjunto de propiedades que describen los mejores ejemplos del concepto en cuestión. Es decir, un prototipo de un concepto es la conceptualización más fundamental. Los prototipos representan los ejemplos ideales de un concepto, como una silla típica equipada con un asiento, respaldo y cuatro patas de madera.

Aunque estos rasgos son indicativos de los miembros más representativos de una categoría, no todos los ejemplos cumplen con estas características, como lo demuestran ejemplos atípicos de sillas o pájaros que no pueden volar, como el avestruz y el pingüino.

Por consiguiente, el concepto también comprende un núcleo que incluye las características esenciales que realmente definen la categoría, como ser un objeto para sentarse en el caso de "silla", o tener plumas y alas para "pájaro".

Sin embargo, no todos los conceptos tienen núcleos claros. Existen conceptos bien definidos, tales como "abuela", que se basan en definiciones precisas, y conceptos probabilísticos, más alineados con una estructura difusa y sin atributos necesarios y suficientes para una definición clara, como los conceptos cotidianos de "silla" o "pájaro". La categorización en estos últimos se relaciona con la similitud al prototipo del concepto; cuantas más características comparta un objeto con el prototipo, más representativo será del concepto.

La investigación indica que la velocidad para reconocer si un objeto pertenece a una categoría cambia según qué tan prototípico sea el ejemplo. Esto resalta cómo los conceptos naturales, mayormente mal definidos o confusos, dependen más de la comparación con prototipos que de definiciones estrictas.

Universalidad

La influencia de la cultura versus la universalidad de los prototipos varía según el tipo de concepto. Para conceptos socioculturales como abuela, la cultura juega un papel significativo en la definición del prototipo. Sin embargo, en conceptos más naturales, especialmente aquellos relacionados con colores, los prototipos tienden a ser sorprendentemente universales.

Tomando el concepto rojo como ejemplo, vemos que es mal definido debido a la falta de conocimiento explícito sobre sus propiedades definitorias, pero aún así posee un prototipo claro. Este prototipo es reconocido tanto dentro como fuera de nuestra cultura, evidenciando una sorprendente consistencia intercultural en la percepción de colores focales, incluso entre hablantes de lenguas sin un término específico para rojo.

Rosch (1973) demostró que, a pesar de las diferencias lingüísticas, existe un consenso global sobre qué tonos representan mejor ciertos colores, como el rojo. Incluso entre los hablantes de Dani, una lengua con solo dos términos de color básicos, se observa una preferencia consistente por los mismos tonos rojos que en otras culturas. Esta capacidad de reconocimiento y memorización de colores focales, pero no de colores no focales, subraya la existencia de prototipos universales en la categorización de conceptos naturales.

Jerarquía

La clasificación de objetos puede realizarse en diferentes niveles de categorización:

  • subordinado: golden
  • básico: manzana
  • supraordinado: fruta

Por ejemplo, manzana Golden representa una categorización subordinada, "manzana" se sitúa en el nivel básico, y "fruta" corresponde al nivel supraordinado. El nivel básico es aquel en el que los objetos son identificados de manera preferente, ofreciendo un equilibrio óptimo entre generalidad y discriminación, y maximizando el contenido informativo.

Investigaciones indican que las personas tienden a usar denominaciones de nivel básico para identificar objetos, como referirse a una "manzana Golden" sencillamente como "manzana". Las categorías supraordinadas brindan poca discriminación debido a la escasez de atributos únicos, mientras que las subordinadas contienen muchos atributos que, sin embargo, suelen ser compartidos con otras subcategorías, disminuyendo su capacidad de discriminación. Los conceptos de nivel básico son los primeros que aprenden los niños, son los más usados y generalmente poseen nombres más cortos.

El nivel básico se distingue por tener las características más distintivas de una categoría. "Manzana", por ejemplo, tiene propiedades distintivas no compartidas por otras frutas, lo que no ocurre con "manzana Golden", que comparte muchas de sus propiedades con otras variedades de manzana. El nivel supraordinado "fruta" posee aún menos características distintivas. De esta manera, se clasifica el mundo en el nivel más informativo, siendo "manzana" el mejor ejemplo de categorización a nivel básico.

Conceptos naturales y artificiales

Existen diversas maneras de aprender conceptos: a través de enseñanza explícita o experiencia. La enseñanza explícita suele enfocarse en el núcleo de los conceptos, mientras que la experiencia ayuda a aprender los prototipos. Los niños aprenden que el núcleo es un mejor indicador conceptual que el prototipo, pero este entendimiento requiere tiempo.

La estrategia de modelos es un método simple donde, por ejemplo, un niño almacena una representación de un "mueble" conocido y luego compara nuevos objetos con esos modelos almacenados. Esta estrategia es efectiva con elementos típicos y es común en niños, quienes al principio aprenden ejemplos típicos y los utilizan para clasificar nuevos elementos similares.

Conforme se desarrolla, se empieza a usar la estrategia de comprobación de hipótesis, investigando propiedades comunes entre ejemplos conocidos y formando hipótesis basadas en estas características. Esta estrategia se enfoca en propiedades fundamentales compartidas entre los ejemplos y se ajusta según la clasificación de nuevos objetos.

El conocimiento previo puede influir en la selección de propiedades durante la comprobación de hipótesis. Según la teoría de la comprobación de hipótesis, se parte de una hipótesis previa al enfrentarse a nuevos estímulos. Esta teoría plantea que los individuos disponen de un conjunto de hipótesis y eligen una para cada ensayo, manteniéndola o descartándola según el éxito en la clasificación.

Bruner, Goodenough y Austin (1956) diferenciaron entre la estrategia total, donde se toman todos los atributos del primer ejemplo positivo y se eliminan progresivamente, y la estrategia parcial, que se basa en algunos atributos y se ajusta con nuevos casos. Generalmente, la estrategia total es más rápida y eficaz para descubrir el concepto correcto.

Teorías computacionales

Modelo ACT (Anderson)

El Modelo ACT recibe su nombre del inglés Adaptive Control of Thought (Control Adaptativo del Pensamiento).

El modelo fue diseñado para explicar una amplia variedad de procesos cognitivos humanos y ha sido utilizado para entender cómo las personas adquieren y organizan el conocimiento y cómo este conocimiento es utilizado para guiar la conducta y el pensamiento.

Consta de tres componentes esenciales:

  1. Memoria operativa, siguiendo la perspectiva tradicional.
  2. Memoria declarativa, que engloba la memoria episódica y redes de nodos conectados, accesibles a través de la propagación de activación. Aquí se codifican relaciones proposicionales (como AGENTE, ACCIÓN, OBJETO), secuencias temporales y representaciones espaciales.
  3. Memoria de producción, o conocimiento procedimental a largo plazo, representada por producciones que son pares de condiciones y acciones (Si…     \implies entonces...). Incluyen habilidades motrices y tareas cognitivas, las cuales se actualizan con la experiencia y pueden automatizarse tras práctica repetida, formando un proceso único que no requiere atención consciente.

Anderson argumenta que ACT* es aplicable en múltiples áreas, especialmente en el aprendizaje, y detalla la transición de procesamiento deliberado a automático.

El modelo ACT ha evolucionado con el tiempo, resultando en diferentes versiones, como ACT-R (Adaptive Control of Thought—Rational), que integra los aspectos de la racionalidad en la teoría de la arquitectura cognitiva y busca explicar los procesos de la mente en términos de sistemas computacionales, en particular en cómo se representa y procesa la información en el cerebro.

Pregunta

Según el modelo ACT de Anderson, si cada vez somos capaces de distinguir mejor entre estímulos que anteriormente creíamos iguales, estamos frente a un efecto de:

Teoría de los esquemas

La teoría de los esquemas, influida por campos como la inteligencia artificial y los trabajos de Bartlett, Head, y Kant, es un pilar de las teorías computacionales de la cognición. Define los esquemas como estructuras de conocimiento o “estructuras de datos para representar conceptos genéricos en la memoria” (Rumelhart, 1980). Estos esquemas dirigen la captación y recuperación de información, influenciando el procesamiento de nueva información y la memoria de la antigua.

Rumelhart describe los esquemas con cuatro metáforas: obras de teatro, teorías, procedimientos y analizadores sintácticos. Es decir, los esquemas actúan como obras que permiten distintas "representaciones" cada vez que se accede a ellas, teorías que guían la interpretación de datos, procedimientos que organizan actividades relacionadas, y analizadores sintácticos que desglosan e interpretan entradas.

Los esquemas intervienen en la codificación a través de cuatro principios:

  • selección: filtra información relevante basada en esquemas existentes
  • abstracción: simplifica detalles en puntos principales
  • interpretación: añade significado más allá de los datos
  • integración: combina información en una representación holística, permitiendo una jerarquía esquemática y mejorando el sentido de información compleja

Especialmente la integración es un fenómeno observado en expertos más que en novatos.

Modelos conexionistas

Los modelos conexionistas desafían la visión tradicional de sistemas simbólicos en psicología cognitiva, proponiendo que la mente funciona más como un cerebro que como una computadora. Estos modelos argumentan que, a diferencia de las computadoras con procesamiento en serie, el cerebro realiza procesamiento en paralelo mediante miles de millones de neuronas interconectadas. Esto cuestiona la eficacia de las CPU convencionales para simular la cognición humana, dado que el cerebro puede realizar rápidamente tareas complejas que las computadoras no pueden, como la navegación espacial y el reconocimiento facial.

El conexionismo sugiere una arquitectura cognitiva simplificada donde no se distingue entre tipos de memoria o procesos cognitivos. En lugar de ello, utiliza una red de unidades de cómputo similares a neuronas donde el aprendizaje, la memoria y el pensamiento son patrones de actividad. Estas unidades suman la información de entrada y, si alcanzan un nivel de excitación umbral, envían una señal a otras unidades. Este proceso puede emular funciones matemáticas y, por tanto, cualquier proceso cognitivo.

Las redes neuronales conexionistas se han utilizado para simular fenómenos como el condicionamiento clásico y pueden ser organizadas en capas o de forma más aleatoria. Sin embargo, las redes neuronales conexionistas enfrentan críticas por diferencias significativas con los cerebros biológicos, como la transmisión de información y la variabilidad de las neuronas; o el hecho de que el cerebro funciona dentro de una “sopa” bioquímica. Además, el aprendizaje de estas redes puede ser opaco y sufrir interferencias catastróficas, lo que no ocurre en el aprendizaje humano. Estos problemas indican que, aunque similares en estructura a los sistemas nerviosos biológicos, las redes neuronales conexionistas difieren en su funcionamiento.

Teorías del aprendizaje por reestructuración

El aprendizaje por reestructuración representa una corriente alternativa a las teorías computacionales, con raíces en el estructuralismo cognitivo europeo de autores como Piaget y Vygotski, y la Escuela de la Gestalt.

Estos teóricos proponen un enfoque organicista, enfatizando que el aprendizaje humano no se basa simplemente en asociaciones y elementos aislados, sino en unidades molares donde la totalidad es más que la suma de sus partes.

Este enfoque sostiene que los conceptos son parte de estructuras más amplias o teorías, y que el aprendizaje implica cambios cualitativos en estas estructuras, una reestructuración de las teorías internas que forman los conceptos. Contrario a las teorías asociacionistas que ven los conceptos como acumulaciones de rasgos, la reestructuración ve el aprendizaje como un proceso orgánico y holístico, enfocado en el desarrollo a largo plazo y en la adquisición de conocimientos complejos. Desde esta perspectiva, resolver problemas y aprender no es una cuestión de asociar elementos cercanos, sino de comprender la estructura global de las situaciones.

Estudios de la Gestalt

Los teóricos de la Gestalt promovieron la idea del aprendizaje por insight frente al aprendizaje memorístico o asociativo. El insight se describe como una comprensión súbita que reestructura el entendimiento de un problema, distinguiéndose del aprendizaje por ensayo y error de los conductistas. Los experimentos de Köhler con monos y los estudios con humanos evidencian que el aprendizaje Gestalt no es asociativo sino que se basa en la comprensión de la estructura global de las situaciones.

Wertheimer contrapone los mecanismos de aprendizaje asociativo con los de la Gestalt, donde la asociación no es un enlace ciego sino la comprensión de relaciones estructurales entre elementos interdependientes. La repetición y el ensayo y error también se reinterpretan como métodos para entender estas estructuras. En este enfoque, el aprendizaje puede surgir tanto del éxito como de la reinterpretación de los fracasos, siempre que se comprendan las razones estructurales subyacentes.

Sin embargo, las condiciones necesarias para que se produzca un insight son vagamente definidas por la Gestalt. Aunque el proceso de insight puede ser precedido por un periodo de preparación, los factores que lo desencadenan son menos claros. La experiencia previa a menudo se considera un obstáculo para el insight, particularmente en lo que se refiere a la 'fijeza funcional', que dificulta la reestructuración necesaria para la solución de problemas.

En resumen, la Gestalt, aunque eclipsada históricamente por el conductismo, sigue siendo relevante por su crítica al enfoque atomista y su defensa de un análisis molar de la cognición, centrándose en la estructura como la unidad básica de análisis.

Piaget

Jean Piaget, destacado en las teorías psicológicas del aprendizaje, propuso un enfoque único distinguiendo entre aprendizaje en sentido estricto, que involucra la adquisición de información específica del medio, y aprendizaje en sentido amplio, relacionado con el desarrollo de estructuras cognitivas a través de la equilibración.

Piaget argumentó que el aprendizaje de conocimientos específicos está subordinado al desarrollo de estructuras cognitivas generales, desafiando la idea del aprendizaje por asociación y enfatizando en cambio en la construcción e invención por parte del sujeto.

La teoría de Piaget se centra en dos procesos complementarios:

  • la asimilación, donde el sujeto interpreta la información según sus estructuras conceptuales existentes
  • la acomodación, que ajusta los esquemas del sujeto a nuevos datos.

Estos procesos trabajan juntos hacia un equilibrio cognitivo, que Piaget divide en tres niveles crecientes de complejidad, desde el equilibrio con el entorno hasta la integración jerárquica de esquemas diferenciados.

Piaget establece una serie de estadios de desarrollo cognitivo, cada uno con características específicas y una secuencia fija, donde la acomodación y la asimilación permiten la transición y el progreso a través de estos estadios. La teoría destaca la importancia de superar desequilibrios cognitivos para el aprendizaje y el desarrollo, a través de respuestas adaptativas que pueden llevar a una reestructuración profunda del conocimiento.

Critica a las aproximaciones basadas en el aprendizaje asociativo, señalando que su éxito es limitado al no fomentar adecuadamente la asimilación y la acomodación. Además, Piaget discute la necesidad de estructuras de conocimiento que no son adquiridas necesariamente a través de la instrucción, sino desarrolladas internamente, aunque reconoce la importancia de la interacción social y la instrucción en el aprendizaje de conceptos complejos.

Finalmente, aunque Piaget se centra en el desarrollo cognitivo individual, su teoría es complementada por la de Vygotski, quien enfatiza el papel del contexto social y la instrucción en el aprendizaje.

Vigotski

La obra de Vygotski se destacó por su análisis en la adquisición de conceptos espontáneos y científicos. Sus ideas, confirmadas por estudios posteriores, contrastaban con enfoques reduccionistas en psicología. Vygotski enfatizó la relevancia de la conciencia y el lenguaje, rechazando la reducción del aprendizaje a meras asociaciones entre estímulos y respuestas.

Vygotski introdujo una psicología basada en la actividad y mediación, diferenciándose de las teorías conductistas. Los mediadores vygotskianos, como el lenguaje, no solo adaptan sino transforman la realidad. Destacó la influencia de la cultura en la adquisición de estos mediadores, proporcionando una perspectiva única entre las teorías de Piaget y el asociacionismo.

En su visión, el aprendizaje precede al desarrollo, introduciendo el concepto de zona de desarrollo potencial, que refleja la capacidad de un sujeto para realizar tareas con ayuda. Subrayó la importancia de la instrucción y facilitación externa para la internalización de mediadores simbólicos en el aprendizaje.

Dentro de la teoría del desarrollo cognitivo de Vygotski, se distinguen principalmente dos tipos de conceptos:

  • Conceptos espontáneos: se desarrollan naturalmente en la vida cotidiana a través de las experiencias diarias y las interacciones con el entorno. No son enseñados de manera formal, sino que emergen de forma natural a medida que los niños interactúan con su mundo. Son el resultado de la generalización a partir de experiencias concretas y están estrechamente ligados a las percepciones sensoriales y las necesidades inmediatas del individuo.
  • Conceptos científicos: se adquieren a través de la instrucción formal y la educación. Están estructurados sistemáticamente y forman parte de un cuerpo de conocimiento organizado. Este tipo de conceptos requiere de un entendimiento más abstracto y generalizado, y su aprendizaje está vinculado con el desarrollo de habilidades de pensamiento más avanzadas, como el razonamiento lógico, la abstracción y la comprensión de relaciones y principios subyacentes.

Vygotski subrayó que los conceptos científicos se construyen a partir de los cotidianos, mediante procesos de reestructuración y asociaciones previas. A pesar de su teoría inacabada, marcó el camino hacia una teoría integradora del aprendizaje de conceptos.

Las críticas a su obra se enfocan en la dificultad en la asimilación de conceptos científicos y la resistencia de los conceptos espontáneos a ser modificados, además de la falta de criterios claros para diferenciar entre tipos de conceptos.