El error de los conductistas es confundir un patrón empírico con un universal filosófico y científico.

(BAUM, RIBES, ROCA Y HAYE) Sostienen que su disciplina ha identificado universales del comportamiento, basándose en principios como el análisis funcional, la conducta gobernada por reglas o la equivalencia de estímulos. Sin embargo, esta afirmación comete un error epistemológico fundamental: confundir patrones empíricos replicables con verdaderos universales.



Los “universales” del conductismo no son más que patrones que pueden repetirse con frecuencia, pero cuyo cumplimiento depende de múltiples variables: el organismo, el contexto, el entorno, el estado fisiológico y hasta el historial de reforzamiento previo.

Como ejemplo:

La denominada ley de latencia describe el tiempo que transcurre entre la presentación de un estímulo y la respuesta del organismo. Ningún ser vivo está exento de mostrar una latencia, lo cual parece sugerir un principio general. Sin embargo, lo decisivo no es la mera presencia de latencia, sino su predicción exacta y constante.

El problema es que el conductismo no puede establecer una fórmula universal que prediga sin error el tiempo preciso de respuesta. Un mismo estímulo puede provocar una reacción en tres, siete o diez minutos, dependiendo del organismo, del contexto o incluso del estado fisiológico. Esta variabilidad muestra que no existe una constante invariable, sino una distribución empírica de casos.

Por tanto, lo que se presenta como “ley universal” no es más que un patrón replicable: útil para describir regularidades observables, pero incapaz de alcanzar el rango de universal científico. Llamar ley a esta regularidad es cometer un error categorial, al confundir una tendencia empírica con un universal estricto como los que encontramos en física o química.



¿QUÉ ES UN UNIVERSAL, ENTONCES?

“UNIVERSAL FILOSÓFICO VS UNIVERSAL CIENTÍFICO”

UN UNIVERSAL EN FILOSOFÍA EN EL ÁMBITO ONTOLÓGICO, no depende de la observación, sino de la estructura del ser. En ontología, el universal no es una regularidad empírica, sino una condición de existencia. Por ejemplo, tomamos una roca en nuestras manos, ¿existe o no existe? No hay tercera posibilidad. Esta dicotomía no depende del observador ni del contexto, sino de la infraestructura del ser que se estudia en su momento. Por lo tanto, hay universales en filosofía también.

UN UNIVERSAL EN LA CIENCIA, son principios que son independientes de lo particular, no dependen de un sujeto ni de un contexto local. En la ciencia se le conoce como leyes universales. Se usa específicamente para magnitudes físicas que no cambian, mientras que la ley científica describe relaciones reproducibles y verificables.

Ejemplos:

EN QUÍMICA, la reacción entre ácido clorhídrico (HCl) y sodio (Na) siempre produce cloruro de sodio (NaCl) y gas hidrógeno (H
). Esto se cumple de forma idéntica en cualquier lugar del mundo, en cualquier época, sin importar el contexto.

EN FÍSICA, la velocidad de la luz en el vacío es exactamente 299,792,458 metros por segundo. Este valor no cambia si el experimento se hace en París o en el desierto del Sahara, hoy o dentro de mil años, mientras las condiciones sean equivalentes (vacío absoluto).

Estos son universales, filosóficos o científicos: su validez no depende del sujeto, del entorno ni de variables incontrolables. Son constantes.

EL ERROR CONDUCTISTA.

"CONFUNDIR REPLICABILIDAD CON UNIVERSALIDAD"

Que algo se repita muchas veces no lo convierte en universal. Lo universal es aquello que se verifica siempre, sin excepción, sin necesidad de condicionar su aparición a factores contextuales. Por eso, afirmar que principios como la ley de latencia, la conducta gobernada por reglas o la equivalencia funcional de estímulos son “universales” es una falacia de categoría. Lo que el conductismo ha identificado son patrones empíricos útiles y observables, pero no universales, científicos. Para elevarse al rango de universal, una ley debe cumplir con el principio de verificación sin variable: es decir, debe poder comprobarse en cualquier condición, con resultados constantes y sin desviaciones. Si no es así, no es una ley universal. Es solo un patrón de comportamiento condicionado... 

Una vez expuestos estos puntos, podemos percibir que las propuestas del conductismo evidencian que sus supuestas “leyes universales” no alcanzan la categoría de universales filosóficos ni científicos, sino que constituyen patrones empíricos condicionados. Estos dependen de múltiples variables y no se verifican de manera constante e invariable, por lo que su generalización como leyes universales es una falacia de categoría. Los verdaderos universales, ya sean ontológicos o científicos, poseen independencia de contextos, sujetos o circunstancias, y se mantienen constantes bajo cualquier condición. Por tanto, el aporte del conductismo es útil para identificar tendencias observables, pero no puede sostenerse como base de leyes universales, limitándose a describir regularidades replicables dentro de ciertos marcos empíricos.

 

Adrian Valencia.

Comparación conceptual de la filosofía de Nietzsche y Spinoza.


Retratos fusionados de Nietzsche y Spinoza en un paisaje filosófico eterno
Ilustración simbólica de los paralelismos entre Nietzsche y Spinoza, destacando su legado compartido en la filosofía moderna



En el vasto panorama de la filosofía, pocos pensadores han sido tan malinterpretados y al mismo tiempo tan influyentes como Friedrich Nietzsche y Baruch Spinoza. Uno, el alemán con su martillo demoledor de ídolos; el otro, el holandés excomulgado por su visión panteísta del universo. Ambos vivieron en épocas turbulentas, enfrentando el rechazo social por ideas que desafiaban las normas establecidas. Nietzsche, a menudo asociado erróneamente con el nazismo tras su muerte, proclamaba la muerte de Dios y el advenimiento del superhombre. Spinoza, perseguido por judíos y cristianos alike, proponía una ética geométrica donde Dios y la naturaleza son uno solo. ¿Qué une a estos dos gigantes? Una visión funcional del ser humano y el mundo que, pese a sus estilos opuestos –el aforismo poético versus la proposición lógica–, converge en conceptos idénticos. En este artículo renovado, exploraremos estos paralelismos, haciendo accesible su pensamiento para principiantes y profundizando para los eruditos, con un toque creativo que invita a la reflexión personal.

Imaginemos por un momento: Nietzsche, con su bigote frondoso y su pluma afilada, caminando por las montañas suizas, mientras Spinoza pule lentes en su taller holandés, ambos tejiendo un tapiz conceptual que desmonta las ilusiones humanas. No es casualidad que Nietzsche, en una carta a su amigo Overbeck en 1881, confesara su admiración por Spinoza: "Tengo un predecesor, y vaya uno". Esta conexión no es superficial; es un mapa compartido de la existencia, donde el mal no existe como entidad, Dios es inmanente, y la libertad surge de la comprensión racional. ¿Cómo estos filósofos nos invitan a liberarnos de cadenas ideológicas?.

La Negación del Mal: Desvalorización de Valores en Nietzsche y Spinoza

Uno de los pilares compartidos es la idea de que el bien y el mal no son absolutos, sino construcciones humanas derivadas de nuestros deseos y acciones. Spinoza lo expresa con claridad geométrica en su Ética: "Así pues, queda claro, en virtud de todo esto, que nosotros no intentamos, queremos, apetecemos ni deseamos algo porque lo juzguemos bueno, sino que, al contrario, juzgamos que algo es bueno porque lo intentamos, queremos, apetecemos y deseamos" (Parte III). Aquí, el holandés invierte la causalidad tradicional: no deseamos lo bueno; lo bueno surge de nuestro deseo.

Paralelamente, Nietzsche en Así habló Zaratustra advierte: "Símbolos son todos los nombres del bien y del mal: no declaran, sólo hacen señas. ¡Tonto es quien de ellos quiere sacar saber! Prestad atención, hermanos míos, a todas las horas en que vuestro espíritu quiere hablar por símbolos: allí está el origen de vuestra virtud" (De la virtud que hace regalos). Para el alemán, los valores son meros signos, no verdades eternas; desvalorizarlos es liberarse de su tiranía. ¿No es esto idéntico? Ambos niegan el mal como fuerza ontológica, viéndolo como una ilusión nacida de la perspectiva humana. Piensa en cómo etiquetamos "malo" a un evento doloroso solo porque choca con nuestros anhelos; Nietzsche hace una crítica al dualismo moral platónico-cristiano.

En la era actual, esta idea cobra relevancia: en psicología positiva, se habla de reencuadrar experiencias negativas como oportunidades, es una forma vaga y simple de la afirmación spinoziana de que todo es necesario en la cadena causal del universo. Reflexionando personalmente, ¿cuántas veces hemos juzgado algo "malo" solo para descubrir su valor transformador? Nietzsche y Spinoza nos invitan a esta transvaloración, un ejercicio creativo de filosofía aplicada.

Dios Ha Muerto: La Infinita Multiplicidad y la No-Existencia de Dios en Acto

El famoso "Dios ha muerto" de Nietzsche no es un ateísmo nihilista, sino una liberación: el colapso de los ídolos permite el surgimiento del superhombre. Spinoza, por su parte, define a Dios como "un ser absolutamente infinito, esto es, una substancia que consta de infinitos atributos, cada uno de los cuales expresa una esencia eterna e infinita" (Ética, Parte I, Definición VI). Pero inmediatamente aclara: "La esencia de todo lo que puede concebirse como no existente no implica la existencia" (Axioma VII). Dios no "existe" en acto separado; es la sustancia misma del mundo.

Ambos filósofos despojan a Dios de su antropomorfismo: para Spinoza, es la naturaleza naturans y naturata; para Nietzsche, su muerte abre el espacio para la voluntad de poder.

Ambos desean un mundo donde lo divino no es un juez externo, sino la multiplicidad infinita de atributos en cada ser humano. Esto converge en una idea panteísta: Dios es todo, pero no un "ser" personal. Es como decir que el universo es divino en su totalidad, sin necesidad de un creador separado; es una crítica al teodiceo al eliminar el mal como opuesto a un Dios bueno.

En contextos modernos, esta noción influye en la física cuántica y la ecología profunda, donde todo está interconectado. Personalmente, me sugiere una sensación de unidad cósmica, liberadora ante el vacío existencial que muchos sienten hoy.

Cuerpo y Alma como Uno: La No-Existencia de Experiencia Externa

Spinoza afirma: "Según están ordenados y concatenados en el alma los pensamientos y las ideas de las cosas, así están ordenadas y concatenadas, correlativamente, las afecciones o imágenes de las cosas en el cuerpo" (Ética, Parte V, Proposición I). Cuerpo y mente son paralelos, no duales. Nietzsche, según Lou Andreas-Salomé, identifica su inspiración con la revelación exterior: "Para mí -¿cómo podría haber un afuera-de-mi? ¡No existe ningún afuera!" (en su biografía de Nietzsche).

Ambos rechazan el dualismo cartesiano: no hay experiencia externa al ser; todo es inmanente. Piénsese en cómo la emociones afectan el cuerpo (estrés causa enfermedades); Eesto prefigura el monismo neutral en filosofía de la mente. Creativamente, es como danzar en un universo donde mente y materia bailan al unísono, sin jerarquías.

El Eterno Retorno y la Eternidad Spinoziana

Nietzsche plantea el eterno retorno como prueba: "¿Qué dirías si un demonio te dijera que esta vida debes vivirla innumerables veces?" (La gaya ciencia, 341). Es un castigo para ideales falsos, una afirmación de la vida tal cual.

Spinoza define eternidad como "la existencia misma, en cuanto se la concibe como siguiéndose necesariamente de la sola definición de una cosa eterna" (Ética, Parte I, Definición VIII). No es duración temporal, sino necesidad lógica. Ambos conceptos unen el tiempo en un ciclo eterno, sin principio ni fin, castigando ilusiones teleológicas. En reflexión, invita a vivir cada momento como eterno, un ejercicio estoico-nietzscheano para la felicidad cotidiana.

El Superhombre y la Libertad Racional en la Ética de Spinoza

La Parte V de la Ética de Spinoza trata "de la potencia de la razón, mostrando qué es lo que ella puede contra los afectos, y, a continuación, qué es la libertad del alma, o sea la felicidad". Es la vía a la beatitud mediante el conocimiento intuitivo, superando pasiones.

Nietzsche proclama: "El superhombre es el sentido de la tierra" (Zaratustra, Prólogo 3). Ambos describen un pensamiento sin ideales: el sabio spinoziano es el superhombre, libre de afectos irracionales. Consiste en evolucionar de reactivo a proactivo; hacia un monismo ético.

Las Tres Transformaciones: De Camello a Niño en Nietzsche y las Voliciones en Spinoza

Nietzsche describe tres fases: camello (carga valores), león (destruye), niño (crea). "Tres transformaciones del espíritu os menciono: cómo el espíritu se convierte en camello, y el camello en león, y el león, por fin, en niño" (Zaratustra).

Spinoza une voluntad e intelecto: "La voluntad y el entendimiento son uno y lo mismo" (Ética, Parte II, Proposición XLIX). Las voliciones son deseos que llevan al entendimiento intuitivo, paralelas a las transformaciones. Para ambos se realiza "un viaje del alma": del peso de las normas en juego inocente de la creación.

Estilos Opuestos, Mapa Común: Aforismo vs. Proposición

Nietzsche usa aforismos para destruir ideales: "Yo hablo en parábolas, e, igual que los poetas, cojeo y balbuceo" (Zaratustra). Spinoza construye un sistema axiomático, lógico y concluyente.

Sin embargo, comparten soledad: Nietzsche ve en Spinoza un compañero. Su diferencia radica en el método: uno martilla, el otro teje. En conclusión, Nietzsche rompe para liberar; Spinoza construye para elevar. Juntos, ofrecen una filosofía superior, eterna.

Este recorrido por sus ideas nos muestra que, pese a siglos de separación, su pensamiento es muy actual, autentico y libre. Te invito a reflexionar: ¿Estás en fase de camello, león o niño?

¿Qué es un microensayo?

estructura y características de un microensayo
El arte del microensayo: donde la brevedad se encuentra con la profundidad filosófica.



El Arte del Microensayo: Brevedad y Profundidad en la Filosofía

Un microensayo es una texto literario y filosófico que condensa en pocas líneas uno o varios conceptos. Se trata de un texto breve, directo y reflexivo que organiza un conjunto de saberes en torno a un tema específico, ya sea político, social, económico o filosófico. Este formato, característico por su concisión y claridad, no solo es accesible para el lector experto en filosofía, sino también para aquellos que se inician. En este artículo, te explico qué es un microensayo (algo que llevamos haciendo en Microfilosofía desde el 2006), su estructura, características y su relevancia en el ámbito del pensamiento crítico.

¿Qué Define a un Microensayo?

Un microensayo es una relación conceptual breve que organiza ideas de manera clara y directa, buscando transmitir un pensamiento profundo en un espacio reducido. A diferencia de un ensayo tradicional, que puede extenderse por decenas de páginas, el microensayo se limita a unas pocas, generalmente entre una y tres, lo que equivale a un tiempo de lectura de 5 a 15 minutos. Su objetivo es sintetizar un tema específico, ya sea una reflexión filosófica, un análisis político o una crítica social, sin sacrificar la profundidad ni la calidad del contenido.

El microensayo se escribe en prosa, con un lenguaje ligero, accesible y, en ocasiones, impregnado de humor o estilo poético. Este formato no pretende abarcar grandes tratados ni definiciones axiomáticas, sino ofrecer una perspectiva clara y moldeable sobre un tema. Es un ejercicio de precisión: cada palabra cuenta, cada idea debe estar cuidadosamente seleccionada para contribuir al mensaje central. Como tal, el microensayo es un desafío para el autor, que debe equilibrar brevedad con significado, claridad con creatividad.

Estructura de un Microensayo

A pesar de su brevedad, el microensayo sigue una estructura clásica que incluye tres partes fundamentales: introducción, desarrollo y conclusión. Aunque estas partes pueden mezclarse en algunos casos, suelen estar presentes de forma implícita o explícita:

  • Introducción: En esta sección, el autor presenta el tema a tratar, establece el contexto y expone la idea principal que desarrollará. Es el momento de captar la atención del lector, ya sea con una pregunta provocadora, una anécdota o una afirmación contundente. La introducción establece el tono y el rumbo del texto.
  • Desarrollo: Esta parte constituye el núcleo del microensayo, ocupando aproximadamente dos terceras partes del texto. Aquí se desarrolla la idea principal mediante argumentos lógicos, ejemplos o reflexiones. El autor puede explorar diferentes facetas del tema, contrastar ideas o profundizar en un aspecto específico, siempre manteniendo la claridad y evitando divagaciones.
  • Conclusión: En el cierre, el autor sintetiza las ideas expuestas, ofreciendo una reflexión final o una resolución lógica basada en el desarrollo previo. La conclusión no solo resume, sino que también puede abrir nuevas preguntas o perspectivas, invitando al lector a seguir pensando.

La estructura no es rígida, y en muchos casos, el microensayo adopta un tono más libre, donde las ideas fluyen con cierto desorden intencionado. Este desorden, lejos de ser un defecto, es parte del encanto del formato, ya que permite al autor jugar con el estilo, el humor y la creatividad.

Características Esenciales del Microensayo

El microensayo se distingue por una serie de rasgos que lo hacen único en el panorama de la escritura filosófica y reflexiva. A continuación, detallamos sus características principales:

  1. Brevedad: Un microensayo no supera las tres páginas, lo que equivale a unos 6 a 10 párrafos. Esta limitación fomenta la economía del lenguaje y la precisión en la exposición de las ideas.
  2. Autonomía: El texto debe explicarse por sí mismo, sin depender de referencias externas. Esto lo hace accesible para cualquier lector, independientemente de su conocimiento previo.
  3. Conexión con el contexto: Aunque el microensayo es autónomo, suele estar vinculado a un contexto específico, como un debate filosófico, un problema social o un evento político. Esta conexión le da relevancia y actualidad.
  4. Estilo personal: El microensayo permite al autor imprimir su voz, ya sea a través de un tono humorístico, poético o crítico. La subjetividad es bienvenida, siempre que esté respaldada por un razonamiento claro.
  5. Pensamiento claro: A pesar de su brevedad, el microensayo debe transmitir un pensamiento central de forma nítida. El lector debe entender la postura del autor sin ambigüedades.
  6. Flexibilidad: El microensayo no busca ser perfecto ni definitivo. Es un texto moldeable, que puede incluir errores o limitaciones, siempre que estos no comprometan la calidad de la reflexión.

Estas características convierten al microensayo en un formato ideal para explorar ideas complejas de manera accesible, sin la densidad de un tratado filosófico o la formalidad de un artículo académico.

El Microensayo en la Filosofía: Un Ejercicio de Síntesis

En el ámbito de la filosofía, el microensayo es una herramienta poderosa para democratizar el pensamiento. Al ser breve y accesible, permite acercar conceptos complejos a un público amplio, sin sacrificar la profundidad. Por ejemplo, un microensayo puede abordar temas como la libertad en Spinoza, la ideología en Marx o la noción de mimesis en Aristóteles, condensando ideas clave en unas pocas páginas. Esta capacidad de síntesis es especialmente valiosa en una era donde la atención del lector es limitada y la información abunda.

En Microfilosofia.com, el microensayo se ha convertido en un vehículo para explorar temas filosóficos con un enfoque fresco y creativo. Por ejemplo, artículos como "Las tres transformaciones de Nietzsche" o "La noción de mimesis en Aristóteles" muestran cómo este formato puede abordar ideas complejas con claridad y estilo. Estos textos no solo informan, sino que también invitan al lector a reflexionar y a cuestionar sus propias ideas.

El Proceso de Escribir un Microensayo

Escribir un microensayo es un ejercicio de disciplina y creatividad. A continuación, ofrecemos algunas recomendaciones para quienes deseen aventurarse en este formato:

  • Elige un tema específico: El microensayo funciona mejor cuando se centra en una idea o problema concreto. Evita abarcar demasiado; en lugar de escribir sobre "la filosofía de Kant", por ejemplo, podrías explorar "la noción de autonomía en Kant".
  • Define tu pensamiento central: Antes de empezar, ten claro cuál es la idea principal que quieres transmitir. Esta será el hilo conductor de tu texto.
  • Juega con el estilo: No temas experimentar con el lenguaje. Un toque de humor, una metáfora o una referencia cultural pueden hacer que tu microensayo sea más atractivo.
  • Sé conciso: Cada párrafo debe aportar algo nuevo al argumento. Elimina cualquier idea o frase que no contribuya al mensaje central.
  • Revisa y sintetiza: Una vez escrito el primer borrador, revisa el texto para eliminar redundancias y pulir el estilo. La brevedad es clave, pero no debe comprometer la claridad.

El Valor del Microensayo en la Actualidad

En un mundo saturado de información, el microensayo destaca como un formato que combina profundidad y accesibilidad. Su brevedad lo hace ideal para lectores que buscan reflexiones rápidas pero significativas, mientras que su flexibilidad permite abordar temas de actualidad con un enfoque crítico. En el contexto de Microfilosofia, el microensayo se ha consolidado como una herramienta para hacer la filosofía más cercana, rompiendo con la percepción de que esta disciplina es exclusiva de académicos o eruditos.

Además, el microensayo fomenta el diálogo. Al ser breve, invita a los lectores a compartir sus propias reflexiones, ya sea a través de comentarios o de la escritura de nuevos microensayos. Esta interacción es especialmente valiosa en plataformas digitales, donde la comunidad de lectores puede enriquecer el debate con nuevas perspectivas.

Conclusión

El microensayo es mucho más que un texto breve; es arte pues combina precisión, creatividad e intuición. Su estructura sencilla, su estilo flexible y su capacidad para conectar con el lector lo convierten en un formato ideal para explorar ideas filosóficas en un mundo acelerado. En Microfilosofia.com, el microensayo se ha consolidado como una herramienta para hacer la filosofía accesible, invitando a lectores de todos los niveles a sumergirse en el pensamiento crítico. Si deseas escribir un microensayo, recuerda: no se trata de la cantidad de palabras, sino de la calidad de las ideas. Busca la síntesis, juega con el estilo y, sobre todo, deja que tu voz resuene.

Todos los microensayos que hemos escrito aquí: Todos los Microensayos escritos en Microfilosofia 

LAS “DERECHAS E IZQUIERDAS” ¿YA NO RESPONDEN A ESTE TIEMPO?


 

Por Luis Enrique Albizuri — Filósofo.

La tradicional dicotomía “derecha e izquierda”, que tanto se ha usado durante los dos siglos pasados para entender el mundo, ya no sirve para comprender la situación política mundial. En primer lugar, debemos tomar en cuenta que se trata de términos que surgieron durante un momento específico de la historia, cuando la aristocracia europea perdió el poder que tenían por sobre los nobles y la burguesía emergente enriquecida con la Era Industrial.

EL CONTEXTO

Todo fenómeno humano siempre debe estar encuadrado dentro de un contexto (una situación conjunta geográfica, social, económica, política, científica y religiosa) que es lo que la explica. No es lo mismo juzgar al ser humano nómada, de apenas unos cuantos cientos o miles, que a una población sedentaria de ocho mil millones. Lo que puede haber funcionado para entender a los primeros ya no tiene sentido para hablar de los segundos. Hoy el contexto no es el de la confrontación entre los dueños de las empresas fabricantes de productos versus los obreros y empleados como lo fuera durante los siglos XIX y XX. El poder económico (y, por ende, el político) se concentra actualmente en el capital financiero, ese que se encuentra en las pantallas de las computadoras de los principales centros de negocios.

Hoy, quienes son dueños de las mayores riquezas jamás antes vistas, no son personas que producen o fabrican, sino quienes compran y venden corporaciones dedicadas a toda clase de cosas que son las que surten al mercado mundial. El dinero es el que crea dinero, y, a más dinero concentrado, más poder e influencia en la sociedad. Esto ha cambiado por completo el equilibrio de fuerzas en las diversas naciones donde el estamento laboral, los trabajadores, han perdido toda importancia en el proceso, convirtiéndose en una simple mano de obra barata anónima e individual, a diferencia de lo que sucedía en los tiempos de las huelgas y paralizaciones a manos de los sindicatos.

LAS DERECHAS E IZQUIERDAS

Por ello mismo, en la política contemporánea han perdido todo significado las denominaciones “derecha e izquierda” puesto que estas reflejaban una realidad que hoy ya no se ve en ninguna parte. Originalmente, la derecha representaba al empresario que ponía una fábrica mediante una determinada inversión con el objetivo de incrementarlo y obtener riqueza. Eso daba como consecuencia la contratación de miles de trabajadores que obtenían, a cambio de sus esfuerzos, un salario suficiente como para alimentarse y regresar siempre a sus ocupaciones diarias. Esta dicotomía ocasionaba por lo regular un enfrentamiento de intereses, formándose dos bandos: los dueños de las empresas y los trabajadores, cada uno representado en el gobierno por partidos políticos denominados como derecha para los primeros e izquierda para los segundos.

LAS REVOLUCIONES

Esta pugna social produjo también nuevas propuestas políticas que planteaban alternativas distintas como las socialistas, comunitarias o estatales que buscaban equilibrar la balanza de los beneficios del comercio mundial, creándose movimientos que llegaban hasta alterar la composición interna de los estados, como el caso de la Revolución Rusa o la China. Sin embargo, estas opciones en su mayoría no renegaban del capitalismo o industrialismo, sino que únicamente procuraban otra forma de dirección y repartición de las ganancias que este producía. Después de varios intentos y numerosos enfrentamientos a todo nivel, ese impulso se ha visto muy reducido y en Occidente prácticamente ha desaparecido. El punto de vista individualista o anti colectivista es lo que prima ahora en esta batalla y hay un consenso en cuanto a que los intereses del individuo se hallan por encima de los de la comunidad.

LA CONFRONTACIÓN ACTUAL

A pesar de esta situación, aún perdura el conflicto interno sobre cuál debe ser el rumbo que la sociedad de mercado y el capitalismo deben seguir. En Occidente predomina la visión dialéctica de la vida, que significa que toda discrepancia entre dos posturas debe ser resuelta mediante el triunfo de una sobre la otra (cuál es la mejor). Sin embargo, en Oriente se entiende esto como la armonía de los opuestos (el yin y el yang), donde el resultado no es la eliminación de uno de los miembros (la guerra) sino la unión de ambos en una nueva forma de hacer las cosas.

Si observamos la geopolítica actual, que es lo que está definiendo al planeta, tenemos esas dos visiones enfrentadas respecto a cuál debe prevalecer en el control del mercado. Occidente piensa que debe haber una confrontación bélica para “definir” quién debe ser el que ejerza la hegemonía, mientras que Asia (liderada por China) propone que el mercado puede desenvolverse con efectividad sin necesidad de que exista una fuerza dominante que imponga las reglas según su criterio.

LA DIVISIÓN ACTUAL

No habiendo entonces ya los “patrones” que eran dueños de las fábricas ni los “obreros” que reclamaban mejoras (porque todo esto ha sido absorbido por el mismo mercado y por la sociedad de consumo), lo que se da ahora son: los que piensan que el modelo capitalista a seguir es el “dirigismo” o la orientación del mercado mediante una planificación específica (reflejado esto en propuestas como la Agenda 2030 y muchas otras) versus aquellos que quieren que este siga siendo “espontáneo”, donde nadie instituya otras reglas que las que deciden la oferta y la demanda (que es lo que sostienen los llamados conservadores o tradicionalistas).

Dicho de otro modo, el conflicto es entre los progresistas (entendiendo el progreso como los cambios necesarios que se deben hacer al capitalismo para que este siga funcionando correctamente) y los conservadores o soberanistas (que se refugian en la protección la soberanía de las naciones como trincheras para defenderse de quienes intentan hacer las modificaciones). Ambos son, obviamente, capitalistas al cien por ciento, pero no se ponen de acuerdo en cuál debería ser el rumbo que este sistema debe adoptar.

LAS POTENCIAS EN CONFLICTO

Los países que propugnan el progresismo (gobernados en su mayoría por partidos socialistas o, dicho de otro modo, capitalistas populistas) son los europeos, a los que se suman otros como Japón, Israel y Australia (el entorno anglosajón), mientras que los que están en el lado conservador son China, Rusia, India, y muchos otros (especialmente los que pertenecen a los BRICS). El caso de EE. UU. es especial, pues su Estado Profundo (Deep State) es progresista, pero tiene en la presidencia a un conservador (Trump) con una posición sumamente débil ante este. En cuanto a los países latinoamericanos, los que se inclinan por el modelo conservador soberanista son los más cercanos a China y Rusia como Cuba, Venezuela y Nicaragua, mientras que el resto (con un Brasil incierto) apuestan por el progresismo. Las NNUU están dominadas por la línea progresista.

EN EL PERÚ

Países como el Perú aún no se adecúan al entorno contemporáneo y su política interna permanece todavía anclada al siglo XX donde quedan los rezagos de la Guerra Fría, de ahí que mantengan el esquema mental “derecha izquierda” aunque, en la práctica, ninguno de sus partidos profesa ya dichas ideologías. La población en general (salvo los que pasan de los 70 años) no le da importancia a dicha clasificación y opta por el pragmatismo puro de evaluarlo todo según la conveniencia, donde el beneficio y la rentabilidad es la forma de medir las cosas. En cambio, su clase alta navega en la indecisión de continuar con su lealtad a un EE. UU. (progresista) como forma de consolidar su poder interno y las necesarias inversiones que, en los hechos, solo las hace el capital chino (conservador). Eso hace que su política exterior y sus planes de expansión carezcan de coherencia y futuro. De modo que en el Perú se vive en un eterno compás de espera para ver cómo se desenvuelve el panorama internacional para, según eso, ver cómo acomodarse.

Conclusión.

Aunque se proclaman antagónicos, muchos partidos de “izquierda” y “derecha” terminan respaldando, en la práctica, un mismo modelo económico: capitalismo financiero, apertura de mercados y políticas pro-inversión. ¿Se trata de una convergencia ideológica inevitable o de una pérdida de coherencia doctrinal? Este fenómeno cuestiona las categorías políticas tradicionales y exige un examen profundo de sus causas y consecuencias.

El Fin del Arte en Hegel y las Brillo Box de Warhol: Una Mirada Filosófica


¿Qué pasa después de la caja Brillo?

Caja Brillo de Andy Warhol con pinceles, representando el arte posmoderno

La Brillo Box de Warhol, emblema del fin del arte hegeliano y el auge del posmodernismo.



Después de un tiempo de letargo y sensación de nostalgia por no publicar, vuelvo al papel. Os presento una propuesta/tesis, cuando menos personal, divertida y original, que ya me lleva tiempo comiendo la cabeza. Hablaremos de la “Brillo box” de Andy Warhol como representación del fin del arte en Hegel. Por si fuera poco, repito, por si fuera poco, también estoy interesada en relacionar los 3 momentos de la historia del arte en Hegel con los 3 momentos de evolución de la persona escrito por Nietzsche en “Así habló Zaratustra”.


Pero tranquilo todo el mundo, ¡Que no os salten las alarmas de la densidad filosófica! Como siempre mi prisma y mi reto es divulgar de forma que no os acabe dando un parraque cerebral. Aquí estamos para pasarlo bien y si se puede analizar críticamente algo, ¡Eso que nos llevamos a la tumba!


¡Pasajeras empezamos el viaje! Comenzamos por el germen de este inusual artículo: La Brillo Box (producto de súper: cajas con esponjas para lavar la vajilla). En 1964 Warhol presenta por primera vez las Brillo Box como obras de arte. Las cajas representan objetos cotidianos que plantean estas cuestiones la mar de interesantes, entre otras:

- ¿Cuándo un ente cotidiano pasa a ser elevado a la categoría de obra artística?
- ¿El concepto de autoría y artista van de la mano?
- ¿Cuál es la realidad del arte y el arte en sí mismo?

Para retozar cómodamente todo el rato que queramos en torno a estas preguntas e intentar dar nuestras propias respuestas bajo nuestro espíritu valorativo, hemos de saber que Warhol no presenta las cajas Brillo en bruto, sino que presenta una caja diferente a la del súper con un logo hecho por James Harvey. Ahora el arte se libera ya que todo es susceptible a serlo. La narrativa subyacente es susceptible a ser un caleidoscopio postmoderno.
¡Vamos que te peta la puta cabeza!

En mi humilde opinión las cajas Brillo fueron creadas en un momento clave y colaboraron con el cambio de paradigma artístico, fueron de la mano con el fin del modernismo dejando espacio para el postmodernismo o a una era post histórica en lo que a historia del arte hegeliana se refiere.


Para entender bien el fin del arte en Hegel daré 4 brochazos del sistema hegeliano, a modo de contextualización, pero que nadie se altere que todo sigue la misma línea divulgativa con destellos petardos.

Vamos a empezar como se suele hacer por el principio, en un inicio nos topamos, dice Hegel,  con un arte simbólico, donde el elemento sensible se superpone al material. Corresponde a las primeras propuestas artísticas, cuando las personas y la naturaleza son misterios por resolver a modo Agatha Christie. Ejemplo de ello es el arte del Antiguo Egipto. Por suerte fui a Egipto hace poco y si tienes la fortuna de ver una pirámide e incluso entrar dentro, te saltan los plomos y das la razón a Hegel. Es como la famosa frase de Un tranvía llamado deseo “No quiero la realidad, quiero la magia”.

 En un segundo momento pasamos al arte clásico, siendo Grecia su máximo exponente. Aquí vemos representaciones artísticas de dioses antropomorfos, es decir la idea y la materia se equiparán.

Como podéis observar a medida que llegamos a la última parada: el fin del arte. La materia se va diluyendo para dar paso a la idea en si misma. Primero en Egipto, la forma supera el contenido, luego en Grecia el contenido y la idea se igualan y finalmente con Warhol la idea rebasa la forma y muere el arte. Hegel marcó este último hito con el arte romántico, pero no hemos de olvidar que el autor lleva cadáver desde el 1831 y no pudo disfrutar en vida las Brillo Box.

Seguimos al lío y os recomiendo que os abrochéis los cinturones porque de aquí hasta el final del artículo me he permitido ir cuesta bajo y sin frenos. Como ya he comentado en el inicio, estoy interesadísima en compartir con vosotres la siguiente movida: Relacionar los 3 momentos de la historia del arte en Hegel con los 3 momentos de evolución de la persona escrito por Nietzsche en “Así habló Zaratustra”. Nada, una que se vuelve creativa y para eso tenemos la dicha de contar con este espacio.

Estos tres periodos descritos por Hegel (resituando el tercero a nivel personal no en romanticismos sino en el arte conceptual), me empujan de forma muy violenta a relacionarlos con los tres períodos de la persona descritas por Nietzsche, a saber: el camello, el león y el niño.

El camello representa a la persona cargada con una mochila de creencias y supercherías caducas para, cual oveja en el rebaño, sin fuerza para huir a cambio de un paraíso tras esta vida mundana. Evidentemente la persona que es camello está fuertemente metida en el cristianismo y posee una moral de esclavo heterónoma, que le dice qué y cómo ha de hacer las cosas. Llevando a la historia del arte en Hegel responde al arte egipcio que ya os digo yo que de supersticiones y rituales complejísimos está lleno. Lo que me parece una maravillosa fantasía.

La segunda parada representa la fuerza del león para romper contra el deber. Con el león se rompe con lo preestablecido y llega el nihilismo (soy fan que tendría, cual adolescente, un póster de este momento en mi habitación). Este nihilismo representa la archiconocida muerte de Dios. Aquí entrelazaríamos al león con el arte griego que ha superado ya lo simbólico. 

Ante esto ¿Qué coño hace una persona? Pues crear sus propios valores y ahora es cuando entra en el juego la tercera transformación del león al niño, el famosísimo superhombre, que yo denomino superpersona para estar más al día. PUTA LIBERACIÓN TOTAL. En lo artístico llega la postmodernidad y a partir de las Brillo vemos el arte como juego donde el concepto rebosa a la materia.


Este sencillo es esquema nos servirá de referencia y conclusión para resituarnos un poco en todo lo que hemos estado viendo:


Este artículo no ha dejado de ser un capricho que me marcado con el fin de interpelar a la lectora, podéis verle cierto sentido o simplemente pensar que se me ha ido la olla (lo más probable), pero deseo de corazoncito que no os deje indiferentes. Y me parece de justicia que hayáis pasado un rato por lo menos entretenido, ya que yo me lo he pasado genial escribiéndolo.

¿Qué es un genio realmente? Desde la filosofía


Hoy en día, el concepto de genio ha sido distorsionado y reducido a parámetros meramente académicos o técnicos. Se califica como genio a quien obtiene calificaciones sobresalientes, acumula títulos universitarios o alcanza logros académicos a temprana edad. Sin embargo,para los grandes pensadores, esta visión resulta superficial.



Hoy en día, el concepto de genio ha sido distorsionado y reducido a parámetros meramente académicos o técnicos. Se califica como genio a quien obtiene calificaciones sobresalientes, acumula títulos universitarios o alcanza logros académicos a temprana edad. Sin embargo, para los grandes pensadores, esta visión resulta superficial.

De igual forma el concepto de inteligencia ha sido reducido a una métrica numérica: El coeficiente intelectual (IQ). Este indicador, usado ampliamente por instituciones educativas, científicas y laborales, se ha convertido en el estándar moderno para etiquetar a las personas como “inteligentes” o “no inteligentes”. Sin embargo, esta visión reduccionista no solo distorsiona la naturaleza compleja del pensamiento humano, sino que incurre en errores lógicos, epistemológicos y metafísicos graves.

¿Qué define realmente a un genio?

JEAN-PAUL SARTRE:El genio no se determina por los títulos académicos ni por la cantidad de información que una persona puede memorizar ni a la velocidad que lo hace, sino por la capacidad creativa que transforma su entorno. Como decía JEAN-PAUL SARTRE, el genio no se define por su formación formal, sino por lo que es capaz de aportar al mundo. El talento para memorizar no es sinónimo de inteligencia creadora. Podemos observar el caso de John Stuart Mill, quien en su infancia dominaba lenguas, lógica y economía, con una capacidad cognitiva sobresaliente. No obstante, sus contribuciones no alteraron de forma radical el curso del pensamiento o la historia. En cambio, Copérnico, con un cociente intelectual probablemente menor, revolucionó la visión del universo. Esta diferencia nos enseña que el genio no es una cuestión de saber más, sino de crear algo nuevo, de romper con lo establecido y abrir nuevas formas de pensar. El verdadero genio radica en la originalidad, el ingenio y la capacidad de innovación, cualidades con las que todos nacemos en cierto grado, pero que solo florecen si las desarrollamos con libertad y pasión.

Sartre no creía que el genio fuera un “don divino” o una habilidad innata exclusiva. El ser humano no tiene una naturaleza predeterminada. Primero existimos, luego decidimos qué seremos. En este sentido, el genio no está predestinado, se forja en la lucha, en la experiencia, en la creación consciente de uno mismo. (El existencialismo es un humanismo” (L’existentialisme est un humanisme, 1945) es un ensayo de Jean-Paul Sartre, toca el punto sobre lo que es un genio. El genio no nace, se hace a través de acciones y elecciones radicalmente libre, sobre todo se menciona su famosa frase, el hombre no es nada más que lo que él se hace” resume su idea de que no hay esencia previa) 

Talento vs. Genio: ¿qué los distingue realmente?

SCHOPENHAUER: (El hombre de talento) El talento se forma a través del estudio, la experiencia y la práctica. Es quien domina un campo, quien memoriza, reproduce, y aplica con eficacia lo que otros ya han formulado. Schopenhauer lo define como: “El talento es capaz de alcanzar lo que otros no pueden hacer; el genio, lo que otros ni siquiera pueden imaginar.” Así, un médico, abogado o científico con títulos y especialidades puede ser altamente competente, incluso brillante, pero eso no lo convierte en genio. Es un hombre de gran talento, pero su conocimiento es causal, derivado, funcional.

La trampa moderna: Confundir acumulación con genialidad.

Schopenhauer alertaría sobre:

  1. La idolatría a los títulos: Tener 3 maestrías no te hace genio, sino un “archivista del saber ajeno”.
  2. La obsesión por las notas: Un 10/10 solo prueba eficiencia en repetir, no capacidad de crear.
  3. Los “niños prodigio”: Si solo reproducen conocimiento preexistente ( calcular rápido, tocar piezas difíciles), son monos amaestrados, no genios. ESTA DISTINCIÓN IMPORTA HOY; Vivimos en una era que premia la especialización, pero castiga la originalidad radical.

El genio.

El genio va más allá de la lógica formal, de lo académico y lo técnico. No solo 
sabecrea. Es una fuerza que inventa caminos nuevos, que aporta lo que aún no figura en manuales, universidades o tratados científicos.

  1. El genio innova desde la intuición, la imaginación o la inspiración, pero no de forma vaga: transforma esas visiones en nuevas verdades, nuevos conceptos, nuevas formas de ver el mundo.
  2. Su motivación no es la medalla, ni el reconocimiento, sino el impulso de contribuir, de transformar, de expresar algo original y significativo.

Ejemplo analógico: Un hombre puede estudiar varias carreras universitarias y no ser un genio. Puede memorizar perfectamente lo que otros pensaron, y ser admirado por su capacidad técnica. Pero el genio es aquel que, aún sin títulos, transforma la forma en que comprendemos algo. Por eso Einstein revolucionó la física desde la intuición antes que desde los laboratorios. Por eso Sócrates, siendo una analfabeta, cambió la historia de la filosofía con su pensamiento. (En la obra Parerga y Paralipómena (1851) de Arthur Schopenhauer, hace una distinción muy precisa y profunda entre el talento y el genio)

¿Qué pensaba immanuel kant sobre el genio?

Según Kant: “El genio es el talento (don natural) que da la regla al arte.” Es decir, para Kant, el genio no es simplemente un gran ejecutante o alguien que hace bien las cosas según reglas ya establecidas, sino aquel que crea las reglasaquel que inaugura un nuevo estilo, una nueva forma de pensar o hacer arte, ciencia o filosofía.

Tenía que poseer estas características;

  1. Originalidad: El genio crea obras originales que no pueden ser enseñadas ni copiadas mecánicamente.
  2. Ejemplaridad: Lo que el genio crea se convierte en ejemplo para otros, aunque él mismo no pueda explicar del todo cómo lo hizo.
  3. No puede enseñarse: Kant dice que el genio tiene un “espíritu productivo” que no puede transmitirse por educación.
  4. Inspira sin saber cómo: Aunque genera obras ejemplares, ni siquiera el propio genio puede explicar del todo el proceso creativo que lo llevó a ellas.

Kant y la Memorización.

Kant nunca habría considerado un “genio” a alguien solo por sus títulos o por su capacidad de memorizar. De hecho, para él, memorizar reglas o reproducirlas sin creatividad es un acto sin valor genuinamente estético o trascendente. La genialidad está más cercana a la intuición creativa y productiva, que trasciende la mera repetición. (Kant desarrolla su idea del genio principalmente en su obra “Crítica del juicio” (1790), particularmente en el apartado sobre el juicio estético.)

Una vez que hemos analizado diversas posturas filosóficas sobre el genio y la inteligencia, es menester abordar una de las formas más populares (y problemáticas) de “medir la inteligencia”: la prueba de Coeficiente Intelectual (IQ). Aunque esta prueba ha sido defendida por algunos sectores de la psicología, desde un enfoque filosófico presenta serias inconsistencias metafísicas, lógicas y epistemológicas.

Prueba de IQ: Deficiencias Metafísicas.

La prueba del Coeficiente Intelectual (IQ), aunque utilizada como herramienta para medir inteligencia, presenta graves deficiencias metafísicas que ponen en duda su validez como criterio universal.

Supuestos ontológicos erróneos.


La prueba parte de una 
concepción ontológica limitada de la inteligencia, donde se asume que esta es una entidad homogénea, cuantificable, y fija en el individuo. No considera que la inteligencia puede ser dinámica, contextual, emergente y relacionada con múltiples dimensiones del ser humano: desde la imaginación y la intuición hasta las habilidades emocionales, prácticas y sociales.

Ausencia de una teoría de primer orden lógico.

El IQ carece de una fundamentación filosófica de primer orden que justifique claramente qué es la inteligencia desde una perspectiva integral. Se mide algo que ni siquiera ha sido correctamente definido, lo cual genera una ambigüedad epistémica seria.

Error dualista.

La prueba incurre en un dualismo reduccionista, considerando que solo las capacidades lógico-matemáticas y lingüísticas son centrales, mientras que las dimensiones físicas, emocionales, creativas o prácticas son vistas como secundarias o irrelevantes. Esta separación artificial distorsiona la naturaleza holística de la inteligencia.

Supuesto de linealidad.

Se asume un proceso de desarrollo intelectual lineal y homogéneo, cuando muchas capacidades cognitivas se manifiestan de forma no lineal, incluso en etapas avanzadas de la vida. La prueba no contempla talentos tardíos ni formas de pensamiento que emergen a través de la experiencia o la maduración.

Falta de alineación sociocultural El test no toma en cuenta los contextos sociales, históricos y políticos. Ignora los objetivos del Estado o comunidad en la que se aplica: sus valores, necesidades educativas, culturales o prácticas. En consecuencia, puede terminar evaluando habilidades que no son significativas para el desarrollo humano en determinado entorno.

La prueba IQ y sus deficiencias epistemológicas.

Desde una perspectiva epistemológica, la prueba del Coeficiente Intelectual (IQ) presenta serias limitaciones que comprometen su validez como medio para conocer o medir el fenómeno de la inteligencia.

Reduccionismo y exclusión.

La prueba IQ parte de una visión reduccionista del conocimiento, simplificando un fenómeno complejo como la inteligencia en variables cuantificables, y excluyendo dimensiones igualmente importantes como la creatividad, la intuición, la empatía o el pensamiento integrado. El enfoque es parcial y sesgado, privilegiando únicamente habilidades lógico-analíticas.

Deficiencia en la construcción teórica.

Epistemológicamente, la prueba carece de una teoría robusta y coherente del objeto de estudio. La inteligencia no ha sido claramente definida dentro del marco de la prueba, lo cual imposibilita construir una teoría de validación seria, pues no se sabe con precisión qué se está midiendo. Esta ausencia de universalidad conceptual debilita el rigor científico del instrumento.

Simplicidad frente a lo dinámico.

La prueba intenta determinar lo indeterminado, es decir, busca una medida estática y cerrada de un fenómeno profundamente dinámico y mutable. De este modo, simplifica procesos complejos, como el desarrollo del pensamiento, que pueden cambiar por la experiencia, el contexto o incluso los estados emocionales.

Supuestos innatistas y descontextualización.

El IQ suele atribuir los resultados a factores innatos, desestimando variables socioculturales, educativas, económicas o emocionales. Esta postura ignora el papel del entorno en el desarrollo cognitivo, reproduciendo una visión atomista que no reconoce lo proactivo de lo social.

Origen eugenésico y sesgo histórico.

Históricamente, la prueba IQ nació ligada a corrientes eugenésicas, como parte de un intento por jerarquizar razas, clases y capacidades. Esto deja una huella en su ausencia de neutralidad, haciéndola poco confiable como herramienta científica universal. No es ajena a intereses ideológicos ni a sesgos de poder.

La prueba de IQ como instrumento falaz: análisis lógico-filosófico.

La prueba de Coeficiente Intelectual (IQ), ampliamente usada para medir la inteligencia, se presenta como una herramienta objetiva y universal. Sin embargo, desde una perspectiva lógica y filosófica, incurre en múltiples falacias que cuestionan su validez metodológica.

 Falacias lógicas presentes en la prueba IQ:

  1. Falacia de generalización apresurada
    Mide principalmente habilidades lógico-matemáticas y lingüísticas, sin considerar otras formas de inteligencia (musical, emocional, social, creativa, etc.). Asume que esas pocas habilidades representan la totalidad del fenómeno.
  2. Falacia ad antiquitatem (apelación a la tradición)
    La validez de la prueba se sustenta en su uso histórico, pero no en una revisión crítica de su fundamento. El argumento “se usa porque siempre se ha usado” no justifica su eficacia ni su validez.
  3. Falacia del falso dilema
    Plantea que solo se es “inteligente” o “no inteligente” según los resultados de la prueba, excluyendo matices, contextos y variables externas que influyen en el desarrollo del pensamiento.
  4. Falacia del término medio no distribuido
    Se generalizan conclusiones sobre “la inteligencia” basándose en una categoría intermedia mal definida. Así, quienes obtienen altos puntajes en IQ son asumidos como más inteligentes sin considerar otros factores.
  5. Falacia de reducción al mérito
    Se parte del supuesto de que el rendimiento en la prueba refleja un “talento puro”, ignorando el entorno social, educativo, económico o emocional que influye en el desempeño.
  6. Falacia circular
    El IQ afirma medir la inteligencia y luego define la inteligencia como aquello que el IQ mide. Esta circularidad impide una verificación independiente del concepto.
  7. Falacia del falso consenso
    Se asume que, como muchas instituciones adoptan la prueba IQ, entonces es válida, omitiendo el análisis crítico de sus fundamentos epistemológicos y científicos.
  8. Falacia del sesgo de confirmación
    Se destacan únicamente los resultados que respaldan la eficacia del IQ, ignorando estudios y posturas críticas que ponen en duda su fiabilidad o su enfoque unilateral.
  • Falacia de simplificación excesiva
    Se reduce el fenómeno complejo de la inteligencia a un solo índice numérico, pretendiendo universalizar un resultado parcial y descontextualizado.

Conclusion.

Desde una perspectiva filosófica, la inteligencia no puede reducirse a la acumulación de conocimientos o a una puntuación numérica. Como lo señala Kant, el genio no se aprende ni se enseña: es una disposición natural para crear lo que no existía. Sartre refuerza esta idea al sostener que el verdadero valor del genio no se mide por títulos, sino por su capacidad para transformar el mundo a través de su obra. Schopenhauer distingue entre el talento que ejecuta con excelencia y el genio que origina nuevas formas de comprensión o expresión.

A partir de esto, entendemos que la inteligencia verdadera no es repetición ni memorización, sino creación. Crear implica interpretar la realidad, establecer relaciones nuevas, generar sentido donde antes no lo había. Por lo tanto, la prueba IQ es metafísicamente frágil, lógicamente inconsistente y epistemológicamente limitada. Asume como medible algo que no ha sido adecuadamente definido, incurriendo en múltiples errores lógicos que la convierten en un instrumento más ideológico que científico.

¿Hay carreras universitarias más difíciles que otras? No existe un estudio científico que demuestre esto, ni postura filosófica que lo respalde.

 

Se considera coloquialmente que sí, por factores como el material a estudiar, complejidad, tiempo para adquirir una habilidad. Aunque esto parece un argumento totalmente válido, para la ciencia no basta. No hay praxis reproducible y con control de variables que demuestre objetivamente que una carrera sea intrínsecamente más difícil que otra. Filosóficamente, carece de marco teórico que explique causalmente, porque es inherente que una es más compleja que otra.

 


Esto es una falacia esencialista lógica:
 

Asumir que la dificultad es una propiedad innata de la carrera, cuando en realidad es relacional (depende del sujeto que aprende). Una persona con gran facilidad para las matemáticas podría considerar la ingeniería relativamente fácil. (Dado que sus habilidades se alinean con las exigencias lógico-matemáticas de esa disciplina) Pero alguien que es bueno en matemáticas, quiere estudiar derecho, pero tiene problemas en la competencia verbal, argumentativa y abstracción, podría experimentar que el derecho es difícil. Esto evidencia que la percepción de dificultad está condicionada por la correspondencia entre las aptitudes del estudiante y las demandas específicas de cada carrera, lo que refuerza la idea de que la dificultad es una propiedad relacional y no inherente a la propia carrera. (una exige razonamiento lógico, otra comprensión, ¿cuál es "más difícil"? no hay parámetro neutral.)

 Comparar carreras con tipos distintos de desafíos, es como preguntar si "el rojo es más color que el círculo". (Es importante recordar que la dificultad percibida de una carrera puede variar según las habilidades individuales, los intereses personales y la dedicación al estudio.)

 
Lo que tenemos es un juicio de valor y sesgo de confirmación cultural.

Las sociedades industrializadas sobrevaloran lo cuantificable mientras subestiman la extracción y argumentación. Por ejemplo: En el siglo XIX, la Medicina era considerada "menos científica" que la Física porque no usaba matemáticas avanzadas. Hoy sabemos que diagnosticar una enfermedad es tan complejo como modelar un sistema físico. E irónicamente, en la actualidad, la medicina figura entre las carreras que socialmente se perciben como más difíciles, lo que demuestra que tales juicios cambian con el tiempo y responden más a valoraciones culturales que a criterios objetivos…Aun así, el prejuicio persiste, y se traslada a otras áreas del conocimiento, alimentando la creencia de que aquellas disciplinas con mayor carga numérica son, por definición, “más difíciles”, lo cual constituye un juicio de valor y no un hecho objetivo.

La filosofía lo anticipó. 

Whitgenstein (en Investigaciones Filosóficas) explicó que las distintas áreas del conocimiento funcionan como juegos de lenguaje: cada una tiene sus propias reglas, finalidades y formas de validación. Lo que cuenta como “rigor” en una disciplina puede ser irrelevante en otra. Decir que una carrera es más difícil que otra usando un único criterio equivale a comparar fútbol con ajedrez y querer decidir cuál es “más deporte”.

 Thomas Khun, en la estructura de las revoluciones científicas, mostró que cada campo de estudio opera dentro de un paradigma propio, con métodos, estándares y problemas reconocidos. En ingeniería, el progreso se mide por la precisión y aplicabilidad de modelos matemáticos; en filosofía, por la coherencia lógica y la capacidad de generar nuevas interpretaciones. No existe un “medidor” único de dificultad que sea válido para ambos.

Aristóteles, en su clasificación de las ciencias (Ética a Nicómaco, Metafísica), ya diferenciaba entre ciencias teóricas, prácticas y productivas. Reconocía que cada una exige virtudes intelectuales distintas: la sofía (sabiduría contemplativa) no se evalúa igual que la téchne (técnica productiva) o la phrónesis (prudencia práctica). Así, no se puede decir que una sea “más difícil” que otra sin reducirlas indebidamente a un mismo patrón de medida.

Conclusión.

Lo que tenemos es un debate mal planteado con respuestas engañosas:

Desde la ciencia, sin métricas universales y condiciones experimentales reproducibles, afirmar que una carrera es intrínsecamente más difícil que otra es una proposición no falsable, en el sentido de Karl Popper: no hay forma objetiva de someterla a prueba.

Desde la filosofía, es un pseudo problema que parte de una premisa errónea: asumir que la dificultad es un atributo absoluto. Las habilidades, el contexto y la cultura del aprendiz son inseparables del proceso de aprender. Así, más que responder “cuál es más difícil”, el enfoque riguroso es entender que toda dificultad es relacional, contextual y dependiente del marco de referencia desde el que se formula la pregunta.

Adrián Valencia

¿Por qué España debe de pedir perdón por las Yndias?

Representación histórica vibrante de la Controversia de Valladolid en el siglo XVI, donde Bartolomé de las Casas y Ginés de Sepúlveda debaten apasionadamente sobre los derechos de los indígenas durante la Conquista española, en un salón renacentista con audiencia atenta, fusionando realismo pictórico y toques juveniles de humanismo y reflexión ética.

En el corazón del Renacimiento, la Controversia de Valladolid (1550-1551) enfrenta a Bartolomé de las Casas, defensor de la igualdad indígena, contra Ginés de Sepúlveda, justificador de la Conquista. Esta escena captura el espíritu humanista que cuestionó la esclavitud y el maltrato, recordándonos que la ética no es un invento moderno, sino un eco vivo de nuestra historia compartida entre España y América Latina. Inspirado en obras como la Brevísima relación de la destrucción de las Indias de Las Casas.


Cuando se demanda por parte de Suramérica el perdón por la Conquista, en España los medios suelen responder que no se pueden hacer juicios de valor con 500 años de diferencia. Pero este argumento ignora por completo la historia de la Conquista y de la propia Administración de lo que se llamaron las Yndias.

Empezando por las leyes de Isabel la Católica de inicios del siglo XVI en las que se prohibía la esclavitud y se pedía un buen trato al indio. Siguiendo por la denuncia de Fray Montesinos de 1512 que dio lugar a la Brevísima descripción de la destrucción de las Yndias de Bartolomé de las Casas, libro que fue best-seller en Francia y Países Bajos y que es el origen de la conocida Leyenda Negra.

El libro de Las Casas provocó la llamada Controversia de Valladolid de mediados de siglo XVI en las que Las Casas y Ginés de Sepúlveda debatieron si los indios tenían alma y por lo tanto debían ser tratados igual que los conquistadores. Las Casas defendió la posición favorable a la igualdad mientras que Ginés de Sepúlveda justificó la Conquista tal como en realidad se estaba llevando a cabo, ignorando las leyes de Isabel la Católica. Podemos comprobarlo en el libro Comentarios reales de Núñez Cabeza de Vaca. Este conquistador fue enviado a la actual Paraguay como regente, pero nada más llegar fue secuestrado para impedirle hacer cumplir las leyes. Al final la última palabra correspondió a la Monarquía que dejó las cosas como estaban. Por tanto, si se demanda el perdón por la Conquista no es porque hagamos juicios de valor con la moral humanitaria del siglo XXI. Ya entonces, en los inicios de la Conquista, a mediados del siglo XVI, la  Conquista fue cuestionada y denunciada tal como se estaba realizando. No en vano, es la época del humanismo del Renacimiento y de la posterior Reforma protestante que puso el foco en la conciencia.

En la Historia verdadera de la conquista de Nueva España Díaz del Castillo relata lo que siguió a la toma de Technotitlán, esto es, la esclavitud y el reparto del botín. Ambas cosas las describe el autor del libro como “malas”. Es un libro del siglo XVI, no de 2024.

En mi opinión, el Jefe del Estado, en nombre de España, debería perdón por la Conquista y por lo que la siguió, que es la esclavitud. A falta de tradición humanitaria, hoy tenemos en Suramérica dictaduras como Cuba, Venezuela,

Nicaragua, etc., a cual más ruinosa. La herencia de la Conquista es la escasa tradición democrática de la actual América Latina, incluida Brasil.

España le debe a América un perdón que solo puede traer beneficios a ambas partes.

Joaquín E. Brotons, profesor de IES


Bibliografía

Brevísima descripción de la destrucción de las Yndias, Bartolomé de Las Casas

Comentarios reales, Núñez Cabeza de Vaca

Historia verdadera de la conquista de Nueva España, Bernal Díaz del Castillo