Fórmula para medir el Riesgo Cognitivo ante la Inteligencia Artificial (Formula to measure cognitive risk in the face of Artificial Intelligence)

Created by Dr. Rubén Carvajal 

June 6, 2025

Introducción:

La constante interacción con tecnologías basadas en inteligencia artificial (IA) está moldeando no solo nuestra forma de trabajar, sino también nuestros procesos cognitivos. Especialmente en la adolescencia, cuando el cerebro aún está en proceso de maduración, la exposición continua a herramientas como los chatbots generativos (IAG) o aplicaciones basadas en Machine Learning y Modelos de Lenguage Grande (LLM), tales como las de las redes sociales (Tik Tok, Instagram, etc.) puede tener implicaciones no siempre beneficiosas en el desarrollo cerebral y las funciones ejecutivas. Con el objetivo de identificar y medir los posibles efectos negativos de la exposición a la IA, he desarrollado una Fórmula de Riesgo Cognitivo ante la Inteligencia Artificial, la cual busca ser un referente para investigaciones futuras en neuroeducación y psicología cognitiva.

La Fórmula:

La Fórmula de Riesgo Cognitivo (RC) que propongo se basa en la interacción entre tres factores clave: Adicción Algorítmica, Pensamiento Crítico y Toma de Decisiones Eficiente. Esta fórmula no solo propone evaluar el riesgo cognitivo derivado del uso de herramientas basadas en IA, sino que también destaca cómo las funciones cognitivas protectoras pueden mitigar esos riesgos.

Riesgo Cognitivo (RC)=Adiccioˊn Algorıˊtmica (AA)Pensamiento Crıˊtico (PC)×Toma de Decisiones Eficiente (TDE)\textbf{Riesgo Cognitivo (RC)} = \frac{\text{Adicción Algorítmica (AA)}}{\text{Pensamiento Crítico (PC)} \times \text{Toma de Decisiones Eficiente (TDE)}}

En esta fórmula, se mide el riesgo cognitivo a partir de tres componentes:

  1. Adicción Algorítmica (AA): Un indicador clave del tiempo de uso excesivo de plataformas con algoritmos predictivos como redes sociales o asistentes basados en IA, lo cual puede llevar a la dependencia cognitiva, debi a los efectos gratificantes asociados con la recompensa inmediata.

  2. Pensamiento Crítico (PC): La habilidad de analizar, evaluar y sintetizar información, que puede actuar como un factor protector contra los efectos negativos de la exposición excesiva a la IA.

  3. Toma de Decisiones Eficiente (TDE): Una medida de la capacidad para tomar decisiones informadas y adecuadas, una habilidad crucial que puede disminuir la vulnerabilidad a la "descarga cognitiva" causada por el uso de tecnologías.

Objetivo y Aplicaciones:

La fórmula tiene como fin proporcionar un marco cuantitativo para evaluar los riesgos cognitivos que implica el uso de IA en adolescentes y adultos jóvenes. Esta herramienta es crucial tanto para estudios científicos como para la intervención educativa y la formulación de políticas públicas.

La investigación futura que emplee esta fórmula podrá ayudar a desarrollar programas de prevención y capacitación dirigidos a mitigar los efectos negativos de la IA, promoviendo un desarrollo cognitivo saludable y equilibrado en las generaciones venideras.

Protección de la Idea:

Este trabajo ha sido concebido, investigado y elaborado por el Dr. Rubén Carvajal, quien se encuentra comprometido con el avance de la investigación en neuroeducación y el estudio de los efectos de la IA en el cerebro humano. La fórmula de riesgo cognitivo aquí presentada está protegida bajo los derechos de autor de Rubén Carvajal Santana para su uso en futuras investigaciones científicas y colaboraciones. Se reconoce públicamente que cualquier uso de esta fórmula deberá obtener la debida referencia a este blog en el siguiente formato de cita:

Carvajal, R. (2025, 10 de junio). Fórmula para medir el riesgo cognitivo ante la Inteligencia Artificial [Entrada de blog]. Blog de Rubén Carvajal. https://rubencarvajal.blogspot.com/2025/06/formula-para-medir-el-riesgo-cognitivo.html

Procedimiento de uso de la fórmula

Numerador: Adicción Algorítmica (AA)

Indicadores sugeridos:

  • Tiempo de uso en apps con algoritmos predictivos.

  • Resultados en escalas como IAT, PIUQ, Digital Addiction Scale.

  • Uso > 4 h/día en redes predictivas → riesgo alto.


Denominador (Protección Cognitiva)

1. Pensamiento Crítico (PC)

Instrumentos:

  • Watson-Glaser, Ennis-Weir, CTDI.

  • Se puede usar percentil o puntuación estandarizada.

2. Toma de Decisiones Eficiente (TDE)

Propuesta de evaluación:

  • Instrumental: Iowa Gambling Task, BRIEF-A, escenarios morales.

  • Criterio: porcentaje de decisiones con resultados adecuados en contextos simulados o reales.

  • Riesgo si < 50% de decisiones se consideran adecuadas según criterios de expertos.


Límite de riesgo sugerido

RC>1Riesgo Cognitivo AltoRC > 1 \Rightarrow \text{Riesgo Cognitivo Alto} 0.5<RC1Riesgo Moderado0.5 < RC \leq 1 \Rightarrow \text{Riesgo Moderado} RC0.5Riesgo BajoRC \leq 0.5 \Rightarrow \text{Riesgo Bajo}


El contexto educativo (docente + familia) en la fórmula

Es posible incorporar los efectos educativos (el rol docente y de la familia) como un coeficiente modulador (opcional) que ajuste el resultado, de esta forma:

RCajustado=AAPC×TDE×1CERC_{ajustado} = \frac{AA}{PC \times TDE} \times \frac{1}{CE}

Donde:

  • CE = Contexto Educativo (escala de 0.5 a 1.5)

    • CE > 1 = entorno protector (familia + docente con prácticas de guía y estímulo cognitivo)

    • CE = 1 = entorno neutro

    • CE < 1 = entorno de riesgo o ausencia de regulación

¿Cómo medirlo?

  • Ítems autoinformados sobre percepción del apoyo familiar y escolar (líderazgo docente, acompañamiento, mediación crítica).

  • Escalas de parental mediation, school connectedness, o incluso tu propia rúbrica con ítems tipo Likert sobre prácticas educativas.



Metodología (ALTERNATIVA) de Medición Cuantitativa
1. Adicción Algorítmica (AA)
Objetivo: Medir el grado de dependencia o uso problemático de plataformas con algoritmos predictivos (p. ej., redes sociales, asistentes de IA) que generan recompensas inmediatas.
Indicadores y Métodos:
  1. Tiempo de Uso Objetivo:
    • Método: Utilizar herramientas de rastreo digital (p. ej., Screen Time en iOS, Digital Wellbeing en Android) para registrar el tiempo diario (en minutos) en aplicaciones con algoritmos predictivos (p. ej., TikTok, Instagram, YouTube, asistentes de IA como ChatGPT).
    • Criterio: Calcular el promedio diario de uso en un período de 7 días para captar patrones estables. Normalizar los datos en una escala de 0 a 100 (p. ej., 0 = 0 minutos, 100 = 6 horas o más, basado en percentiles poblacionales).
    • Justificación: Reduce el sesgo de auto-reporte al usar datos objetivos. Estudios (como en sobre redes sociales) muestran que el tiempo excesivo se correlaciona con comportamientos adictivos.
    • Mitigación de Sesgos: Diferenciar entre uso activo (interacciones) y pasivo (scrolling) mediante análisis de patrones de interacción (p. ej., clics, likes) para captar el impacto de algoritmos de recompensa variable.
  2. Escala de Adicción Digital Adaptada:
    • Método: Adaptar una escala validada como la Digital Addiction Scale (DAS) o el Problematic Internet Use Questionnaire (PIUQ-SF-6) para enfocarse en adicción algorítmica. Incluir ítems específicos como:
      • "Siento una necesidad constante de revisar contenido recomendado por la app."
      • "Me cuesta dejar de usar plataformas de IA/redes incluso cuando quiero."
    • Criterio: Puntuación en una escala de 0 a 100, basada en respuestas a ítems (p. ej., Likert de 1 a 5). Usar normas poblacionales para estandarizar (p. ej., percentil 75 = riesgo alto).
    • Justificación: Estas escalas tienen alta confiabilidad (α ~0.9) y capturan dimensiones de adicción (pérdida de control, impacto en la vida diaria). La adaptación asegura relevancia para algoritmos predictivos.
    • Mitigación de Sesgos: Combinar con medidas conductuales (ver punto 3) para contrarrestar la subjetividad del auto-reporte.
  3. Tarea Conductual: Respuesta a Recompensas Algorítmicas:
    • Método: Diseñar una tarea experimental en la que los participantes interactúan con una simulación de una plataforma con algoritmos predictivos (p. ej., un feed de contenido con recompensas variables). Medir:
      • Frecuencia de interacción (clics en contenido recomendado).
      • Tiempo hasta la desconexión voluntaria (máximo 10 minutos).
    • Criterio: Puntuación de 0 a 100 basada en la frecuencia de interacción (alta = mayor dependencia) y el tiempo de desconexión (bajo = mayor riesgo).
    • Justificación: Simula el comportamiento real en entornos algorítmicos, captando la impulsividad (como en sobre el núcleo accumbens).
    • Mitigación de Sesgos: Controlar variables como el tipo de contenido (neutral vs. emocional) y estandarizar la tarea para evitar efectos de aprendizaje.
Puntuación de AA:
  • Combinar los tres indicadores (tiempo de uso, escala adaptada, tarea conductual) mediante un promedio ponderado (p. ej., 40% tiempo, 30% escala, 30% tarea).
  • Normalizar la puntuación final en una escala de 0 a 100, donde 0 = sin riesgo, 100 = riesgo máximo.
  • Ejemplo: AA = (0.4 × Tiempo_normalizado + 0.3 × Escala_normalizada + 0.3 × Tarea_normalizada).
Validación:
  • Comparar las puntuaciones con biomarcadores de adicción (p. ej., actividad en el núcleo accumbens mediante fMRI, como en) para confirmar validez convergente.
  • Realizar un estudio piloto con una muestra diversa para establecer normas poblacionales.

2. Pensamiento Crítico (PC)
Objetivo: Evaluar la capacidad de analizar, evaluar y sintetizar información, especialmente en contextos digitales influenciados por algoritmos predictivos.
Indicadores y Métodos:
  1. Watson-Glaser Critical Thinking Appraisal (Adaptado):
    • Método: Usar una versión adaptada del Watson-Glaser para incluir ítems relevantes al contexto digital, como:
      • Evaluar la credibilidad de un post de redes sociales.
      • Identificar sesgos en contenido generado por IA.
    • Criterio: Puntuación estandarizada (0-100) basada en normas poblacionales. Por ejemplo, percentil 50 = 50 puntos.
    • Justificación: Es un instrumento validado (α ~0.8) que mide habilidades clave (análisis, inferencia, evaluación) (Watson & Glaser, 2002).
    • Mitigación de Sesgos: La adaptación al contexto digital asegura relevancia. Usar ítems objetivos (opción múltiple) reduce la subjetividad.
  2. Tarea Conductual: Evaluación de Desinformación:
    • Método: Presentar a los participantes una serie de posts simulados (p. ej., noticias, contenido de redes) con información verdadera, falsa o sesgada. Medir:
      • Porcentaje de respuestas correctas al identificar la veracidad.
      • Tiempo de respuesta (rápido = confianza en el juicio, lento = duda).
    • Criterio: Puntuación de 0 a 100 basada en la precisión (p. ej., 80% de respuestas correctas = 80 puntos).
    • Justificación: Refleja el pensamiento crítico en entornos digitales (como en sobre redes sociales y adolescentes). Es objetivo y relevante para la adicción algorítmica.
    • Mitigación de Sesgos: Usar contenido variado (temas, fuentes) y controlar el nivel de dificultad para evitar sesgos culturales o educativos.
  3. Medida Neurocognitiva (Opcional):
    • Método: Registrar la actividad cerebral (p. ej., EEG o fMRI) durante la tarea de desinformación, enfocándose en regiones asociadas con el pensamiento crítico (p. ej., corteza prefrontal dorsolateral, como en).
    • Criterio: Actividad normalizada (0-100) en función de patrones esperados (p. ej., alta actividad prefrontal = mejor PC).
    • Justificación: Aumenta la objetividad al correlacionar el desempeño con biomarcadores.
    • Mitigación de Sesgos: Limitado a entornos de laboratorio, pero útil para validación inicial.
Puntuación de PC:
  • Combinar Watson-Glaser adaptado (50%) y tarea de desinformación (50%) para una puntuación final de 0 a 100.
  • Ejemplo: PC = (0.5 × Watson-Glaser_normalizado + 0.5 × Tarea_desinformación).
  • Si se incluye la medida neurocognitiva, ajustar los pesos (p. ej., 40% Watson-Glaser, 40% tarea, 20% neurocognitiva).
Validación:
  • Comparar con otras medidas de pensamiento crítico (p. ej., California Critical Thinking Skills Test) para validez convergente.
  • Probar en poblaciones con diferentes niveles de exposición a IA/redes sociales para asegurar generalización.

3. Toma de Decisiones Eficiente (TDE)
Objetivo: Medir la capacidad de tomar decisiones informadas y adecuadas en contextos influenciados por algoritmos predictivos, minimizando la impulsividad.
Indicadores y Métodos:
  1. Iowa Gambling Task (IGT) Adaptado:
    • Método: Adaptar el IGT para simular decisiones en un entorno digital (p. ej., elegir entre interactuar con contenido recomendado de alto riesgo [recompensa inmediata, pero posible desinformación] o contenido de bajo riesgo [menos atractivo, pero confiable]). Medir:
      • Porcentaje de elecciones de bajo riesgo a lo largo de 100 ensayos.
    • Criterio: Puntuación de 0 a 100 (100 = 100% elecciones de bajo riesgo).
    • Justificación: El IGT es validado para medir decisiones bajo incertidumbre (Bechara et al., 2000) y puede adaptarse al contexto algorítmico.
    • Mitigación de Sesgos: Estandarizar las recompensas y riesgos para evitar sesgos emocionales o de preferencia.
  2. Escenarios Digitales Estandarizados:
    • Método: Diseñar escenarios que simulen decisiones en entornos de IA/redes sociales, como:
      • "Recibes un post recomendado que parece falso. ¿Lo compartes, lo ignoras o lo verificas?"
      • "Un asistente de IA sugiere una acción. ¿La sigues ciegamente o evalúas alternativas?"
      • Evaluar las decisiones según criterios predefinidos (p. ej., verificar = +1, compartir sin verificar = -1).
    • Criterio: Puntuación de 0 a 100 basada en el porcentaje de decisiones "adecuadas" (según expertos).
    • Justificación: Refleja decisiones reales en contextos digitales, complementando el IGT.
    • Mitigación de Sesgos: Usar múltiples escenarios y evaluadores independientes para estandarizar la puntuación.
  3. Medida de Funciones Ejecutivas (Opcional):
    • Método: Usar una tarea conductual como el Stroop Test o el Go/No-Go Task para medir control inhibitorio, un componente clave de TDE.
    • Criterio: Puntuación de 0 a 100 basada en la precisión y el tiempo de respuesta.
    • Justificación: Las funciones ejecutivas (p. ej., inhibición, como en) son críticas para decisiones no impulsivas.
    • Mitigación de Sesgos: Estandarizar las tareas para evitar efectos de aprendizaje o fatiga.
Puntuación de TDE:
  • Combinar IGT adaptado (50%) y escenarios digitales (50%) para una puntuación final de 0 a 100.
  • Ejemplo: TDE = (0.5 × IGT_adaptado + 0.5 × Escenarios_digitales).
  • Si se incluye la medida de funciones ejecutivas, ajustar los pesos (p. ej., 40% IGT, 40% escenarios, 20% Stroop).
Validación:
  • Comparar con otras medidas de toma de decisiones (p. ej., Balloon Analogue Risk Task) para validez convergente.
  • Probar en contextos reales (p. ej., comportamiento en redes sociales) para validez ecológica.

Integración en la Fórmula RC = AA / (PC × TDE)
  1. Normalización:
    • Normalizar AA, PC y TDE en una escala de 0 a 100 para asegurar comparabilidad.
    • Ajustar PC y TDE para evitar valores cercanos a 0 (que harían que RC tienda a infinito). Por ejemplo, usar un mínimo de 1 (PC, TDE ≥ 1).
  2. Cálculo:
    • Fórmula: RC = AA / (PC × TDE).
    • Interpretación:
      • Alto AA, bajo PC y TDE → RC alto (riesgo cognitivo elevado).
      • Bajo AA, alto PC y TDE → RC bajo (riesgo mínimo).
    • Ejemplo Numérico:
      • AA = 80 (alto uso y dependencia).
      • PC = 40 (pensamiento crítico bajo).
      • TDE = 50 (toma de decisiones moderada).
      • RC = 80 / (40 × 50) = 80 / 2000 = 0.04.
      • Establecer rangos de riesgo (p. ej., RC > 0.05 = riesgo alto, basado en normas).
  3. Ajuste de Pesos (Opcional):
    • Si PC y TDE tienen diferente importancia, introducir pesos: RC = AA / (w1 × PC + w2 × TDE), donde w1 + w2 = 1. Determinar pesos mediante análisis factorial o estudios piloto.

Minimización de Sesgos
  1. Objetividad:
    • Priorizar medidas conductuales (tareas de desinformación, IGT adaptado) y datos objetivos (tiempo de uso) sobre auto-reportes.
    • Usar evaluadores independientes para escenarios digitales.
  2. Contexto Digital:
    • Adaptar todos los instrumentos (Watson-Glaser, IGT, escalas) para reflejar decisiones en entornos de IA/redes sociales.
  3. Diversidad Cultural:
    • Probar la metodología en poblaciones diversas (edad, cultura, nivel educativo) para establecer normas inclusivas.
  4. Estandarización:
    • Usar protocolos claros para cada tarea (p. ej., duración, número de ensayos) y criterios de puntuación definidos por expertos.
  5. Validación Empírica:
    • Realizar un estudio piloto con al menos 200 participantes para validar la fórmula (correlaciones entre AA, PC, TDE y resultados como bienestar o desempeño cognitivo).
    • Usar análisis estadísticos (p. ej., regresión, SEM) para confirmar que la fórmula predice el riesgo cognitivo.

Recomendaciones Finales
  • Implementación:
    • Recolectar datos en un entorno controlado (p. ej., laboratorio o app diseñada para la evaluación).
    • Combinar herramientas digitales (rastreo de uso) con tareas experimentales y escalas validadas.
    • Usar software estadístico (p. ej., R, SPSS) para normalizar y analizar datos.
  • Validación:
    • Comparar RC con biomarcadores (p. ej., actividad prefrontal o núcleo accumbens, como en) y resultados reales (p. ej., exposición a desinformación).
    • Publicar los resultados en una revista revisada por pares para establecer credibilidad.
  • Escalabilidad:
    • Desarrollar una app que integre las tareas y escalas para facilitar la recolección de datos a gran escala.
  • Ejemplo de Canvas (Opcional): Si deseas visualizar la fórmula o los resultados, puedo proponer un gráfico en un canvas:
    • Eje X: Puntuación de AA (0-100).
    • Eje Y: Puntuación combinada de PC × TDE (0-10000).
    • Curvas: Líneas que representen niveles de RC (bajo, medio, alto).


_____________________________________________________________________

Introduction

The constant interaction with artificial intelligence (AI)-based technologies is shaping not only the way we work, but also our cognitive processes. This is particularly relevant during adolescence, a developmental stage in which the brain is still maturing. Continuous exposure to tools such as generative chatbots (GAI) or applications powered by Machine Learning and Large Language Models (LLMs)—like those embedded in social media platforms (TikTok, Instagram, etc.)—may have implications that are not always beneficial for brain development and executive functions.

With the aim of identifying and measuring the potential negative effects of AI exposure, I have developed a Cognitive Risk Formula for Artificial Intelligence, intended to serve as a reference for future research in neuroeducation and cognitive psychology.


The Formula

The Cognitive Risk Formula (CR) I propose is based on the interaction of three key factors: Algorithmic Addiction, Critical Thinking, and Efficient Decision-Making. This formula not only aims to assess the cognitive risk derived from the use of AI-based tools, but also highlights how protective cognitive functions may help mitigate those risks.

Cognitive Risk (CR)=Algorithmic Addiction (AA)Critical Thinking (CT)×Efficient Decision-Making (EDM)\text{Cognitive Risk (CR)} = \frac{\text{Algorithmic Addiction (AA)}}{\text{Critical Thinking (CT)} \times \text{Efficient Decision-Making (EDM)}}
  • Algorithmic Addiction (AA): A key indicator of excessive use of platforms with predictive algorithms, such as social media or AI-powered assistants. This can lead to cognitive dependency due to the rewarding effects associated with immediate gratification.

  • Critical Thinking (CT): The ability to analyze, evaluate, and synthesize information. It serves as a protective factor against the negative effects of excessive exposure to AI technologies.

  • Efficient Decision-Making (EDM): A measure of the ability to make informed and appropriate decisions—a crucial skill that may reduce vulnerability to the “cognitive offloading” associated with heavy technology use.


Objective and Applications

This formula seeks to provide a quantitative framework for assessing the cognitive risks associated with AI use in adolescents and young adults. It is a tool of high relevance for scientific studies, educational interventions, and public policy design.

Future research employing this formula could contribute to the development of prevention and training programs aimed at mitigating the negative effects of AI, while promoting healthy and balanced cognitive development in upcoming generations.


Intellectual Property and Attribution

This work was conceived, researched, and developed by Dr. Rubén Carvajal, who is committed to advancing research in neuroeducation and the study of AI's impact on the human brain. The Cognitive Risk Formula presented here is protected under the intellectual property rights of Rubén Carvajal Santana and is intended for use in future scientific research and collaborations.

It is publicly acknowledged that any use of this formula must include proper reference to this blog as:

Carvajal, R. (2025, June 10). Formula to measure cognitive risk in the face of Artificial Intelligence [Blog post]. Rubén Carvajal’s Blog. https://rubencarvajal.blogspot.com/2025/06/formula-para-medir-el-riesgo-cognitivo.html 

Procedure for Applying the Formula

Numerator: Algorithmic Addiction (AA)

Suggested indicators (as previously developed):

  • Total time spent on predictive algorithm-based apps.

  • Results from validated scales such as the IAT, PIUQ, or Digital Addiction Scale.

  • Usage > 4 hours/day on predictive platforms → High risk.


Denominator (Cognitive Protection)

  1. Critical Thinking (CT)
    Instruments:

    • Watson-Glaser Critical Thinking Appraisal

    • Ennis-Weir Critical Thinking Essay Test

    • California Critical Thinking Disposition Inventory (CCTDI)
      Use either percentile ranks or standardized scores.

  2. Efficient Decision-Making (EDM)
    Evaluation Proposal:

    • Instruments: Iowa Gambling Task, BRIEF-A, moral dilemma scenarios

    • Criterion: Percentage of decisions judged appropriate in simulated or real-world settings

    Risk threshold: If < 50% of decisions are deemed adequate by expert criteria.


Suggested Risk Thresholds

  • CR > 1 → High Cognitive Risk

  • 0.5 < CR ≤ 1 → Moderate Risk

  • CR ≤ 0.5 → Low Cognitive Risk


The Role of the Educational Context (Teacher + Family)

The effects of the educational environment (including teachers and family) can be incorporated as an optional modulation coefficient, refining the risk calculation as follows:

Adjusted CR=AACT×EDM×1EC\text{Adjusted CR} = \frac{AA}{CT \times EDM \times \frac{1}{EC}}

Where:

  • EC = Educational Context (scale from 0.5 to 1.5)

    • EC > 1 → protective environment (teachers and families with guiding and cognitively stimulating practices)

    • EC = 1 → neutral environment

    • EC < 1 → risk environment or absence of regulation


How to Measure the Educational Context?

  • Self-reported items regarding the perception of family and school support (e.g., teacher leadership, accompaniment, critical mediation).

  • Scales such as parental mediation, school connectedness, or custom-designed Likert-style rubrics evaluating educational practices.


#Neuroeducación, #RiesgoCognitivoIA, #AdolescenciaYDígital, #InteligenciaArtificialYEducación, #NeurocienciaCognitiva

#Neuroeducation, #CognitiveRiskAI, #DigitalAdolescence, #AIandEducation, #CognitiveNeuroscience

Comentarios

Entradas más populares de este blog

Los 30 neurocientíficos vivos más influyentes de hoy en día

Psicólogo ciego ayuda a otros a ver soluciones

Proyecto Abecedarian: un ensayo controlado aleatorio de educación temprana que ha seguido a niños desde 1971