1. Entre promesa y ambivalencia
La disponibilidad social de modelos de lenguaje a gran escala (LLM o Large Language Model) es hoy masiva y creciente, aunque desigual. A escala global, el acceso potencial a LLM se concentra allí donde convergen infraestructura, alfabetización digital y marcos regulatorios, mientras se amplían también los costos sociales del ecosistema (por ejemplo: ciberdelito, desinformación) (2). En Chile, la penetración de Internet, el uso extendido de redes sociales y el volumen de conexiones móviles confirman que la pastoral se despliega en un entorno marcadamente conectado. Este es o podría ser un nuevo “locus” (lugar o espacio) en que la Iglesia anuncie, celebre y sirva. (3)
En la actualidad los principales usos de la IAG en 2025 (Inteligencia Artificial Generativa), son para terapia y compañía emocional; organización de la rutina; búsqueda de propósito; aprendizaje mejorado; generación de códigos; generación de ideas; diversión y entretenimiento; mejora de códigos; creatividad y vida saludable. (4)
A la vez, la IA (Inteligencia Artificial) exhibe límites constitutivos: produce lenguaje con notable fluidez, pero sin comprensión semántica propia. Una máquina puede combinar términos, construir párrafos brillantes e incluso mostrar un aparente tono emocional, pero todo ello ocurre sin que exista reflexión alguna y sin experiencia de lo que dice. La IA no reflexiona sobre lo que dice; solo elige, entre millones de posibilidades, la secuencia de palabras que más probablemente resultará coherente, operando a nivel sintáctico, manipulando símbolos, pero sin ninguna conexión con el mundo real. Lo que falta, precisamente, es semántica: ese puente entre lo que se dice y lo que se comprende. Toda esa habilidad carece de conciencia. No hay intención. No hay comprensión. Solo una ejecución precisa de tareas que han sido entrenadas sobre bases inmensas de datos. (5)
La carencia de un modelo encarnado del mundo y el hecho de operar dentro de arquitecturas con distintos grados de opacidad, tensionan la verificabilidad científica (6). Estas tensiones no invalidan su uso pastoral; reclaman, más bien, discernimiento informado y gobierno prudente.
2. Aportes posibles a la evangelización y la catequesis (7)
2.1. Personalización mistagógica. La IA permite adaptar contenidos, ritmos y mediaciones a edades, trayectorias y estilos de aprendizaje diversos, favoreciendo itinerarios catecumenales progresivos y verificables (integrando Palabra ‑ Liturgia ‑ Caridad).
2.2. Accesibilidad e inclusión. Herramientas de subtitulado, lectura en voz, traducción en tiempo real o interfaces multimodales abren la participación de personas con limitaciones sensoriales o cognitivas, coherente con una pastoral inclusiva y sinodal.
2.3. Creatividad simbólica. La IA generativa facilita narrativas bíblicas interactivas y recursos visuales sobrios para la catequesis, ampliando el repertorio simbólico sin sustituir el encuentro con el Misterio ni la mediación sacramental.
2.4. Colaboración en red. Plataformas inteligentes pueden articular comunidades de práctica (directores de pastoral, equipos diocesanos, docentes) para compartir experiencias y evaluar impactos, fortaleciendo la corresponsabilidad.
2.5. Disponibilidad asincrónica. Contenidos formativos accesibles a demanda acompañan a comunidades con horarios complejos o territorios extensos, complementando —nunca reemplazando— la presencialidad.
3. Límites epistemológicos y riesgos éticos
3.1. Comprensión vs. fluidez. Los modelos operan por correlación estadística; “saben decir” sin “saber de qué hablan”. Por ello, la producción de textos piadosos o teológicamente plausibles puede contener errores graves, al carecer de juicio teologal y de referencia al sensus fidei.
3.2. Opacidad y reproducibilidad. La trazabilidad de decisiones y la replicabilidad de resultados es limitada, lo que exige cautelas al usar IA en ámbitos formativos, administrativos o de acompañamiento espiritual.
3.3. Sesgos y discriminación. La IA hereda y puede amplificar sesgos de sus datos de entrenamiento, produciendo visiones eurocéntricas, androcéntricas o culturalmente sesgadas (demasiado protestante, europea o americana). Se requieren curaduría y auditorías periódicas.
3.4. Privacidad y protección de datos. La recopilación de información personal, psicológica o espiritual demanda un principio de minimización, consentimiento explícito y almacenamiento seguro; se desaconseja cargar datos sensibles de fieles en servicios no auditados.
3.5. Desinformación y deepfakes. La facilidad para generar contenidos plausibles erosiona confianza social y credibilidad eclesial; urge alfabetización mediática y protocolos de verificación antes de difundir.
3.6. Dependencia afectiva e idolatría tecnológica. La antropomorfización y la “divinización” funcional de la IA son riesgos pastorales: ningún sistema es sujeto de gracia ni agente moral; el primado es de la persona y de la comunidad creyente.
3.7. Cuestiones sacramentales. Las mediaciones digitales son auxiliares; no sustituyen la sacramentalidad, que requiere presencia y comunidad concreta, salvo lo previsto por la disciplina de la Iglesia. La “conexión” no equivale a “comunión”.
4. Criterios teológico‑pastorales para un uso responsable
4.1. Principio de instrumentalidad social. La IA como “socia” del ministerio, nunca como reemplazo. El agente humano conserva la responsabilidad del juicio, del acompañamiento y de la palabra performativa (anuncio, absolución, bendición).
4.2. Centralidad de la persona y del Pueblo de Dios. Todo diseño parte de sujetos concretos, especialmente los más frágiles (brecha digital), hay que tener una real preocupación por ellos y a la vez deben ser ellos los protagonistas. La sinodalidad demanda participación real en decisiones tecnológicas y en evaluación de impactos.
4.3. Verdad y caridad en lo digital. La pastoral en redes promueve prácticas de verificación, corrección fraterna y lenguaje no polarizante. La IA puede asistir en detección de patrones de desinformación, pero la prudencia sigue siendo virtud eclesial practicada en comunidad.
4.4. Gobierno y ética algorítmica. Implementar transparencia razonable, auditorías, equipos diversos, controles de usuario y métricas de éxito evangelizador (no solo likes). Donde haya datos personales, regir por legalidad, proporcionalidad y finalidad pastoral legítima.
4.5. Metáforas bíblicas para imaginar la red. La parábola de la red (Mt 13,47‑50) ilumina una pastoral que “lanza” ampliamente, pero discierne en comunidad; la inclusión no excluye el criterio. La imagen ayuda a comprender arquitecturas de recomendación, filtros y curaduría.
4.6. Inteligencia de la fe e inteligencia artificial. La fe es conocimiento por con naturalidad (fides quaerens intellectum) que integra razón, afecto y práctica; la IA aporta cálculo, síntesis y ampliación de medios. La clave es la integración prudente, orientada a la esperanza y al bien común.
5. Procedimientos operativos: del “uso” al “buen uso” (prompting pastoral y evaluación)
5.1. Prompting (instrucción dada a un LLM) pastoral
5.2. Controles de calidad teológico‑pastoral
5.3. Escenarios de uso
6. Discusión: riesgos sistémicos y horizonte de prudencia
Los debates sobre escenarios extremos (desde la “superinteligencia” hasta la agencia no alineada) deben leerse sin alarmismo, pero con vigilancia ética y cooperación regulatoria internacional. La ONU ha alzado la voz, a través de Doreen Bogdan-Matin, secretaria general de la Unión Internacional de Telecomunicaciones (UIT), para pedir un marco regulatorio global urgente para la IA (9). Sin un acuerdo internacional, esta potente tecnología podría profundizar las desigualdades en el mundo. Esta postura choca directamente con la visión del gobierno de Donald Trump, que prefiere dar rienda suelta a las empresas de IA en Estados Unidos, sin la carga de regulaciones estatales.
En 2023, Geoffrey Hinton —uno de los “padres” del deep learning y Premio Turing— renunció a Google para expresar con libertad sus reservas. En entrevistas y conferencias declaró que la velocidad de los avances le sorprendió y que teme la aparición de capacidades no previstas, incluso formas incipientes de agencia. Llegó a afirmar, en The New York Times (mayo de 2023), que quizá “ya sea demasiado tarde”.
En la Iglesia, eso se traduce en prudencia y en políticas diocesanas claras, comités de revisión interdisciplinar y alianzas con universidades para auditorías periódicas.
Por último, la computación cuántica, por su parte, abre horizontes técnicos cuya madurez pastoral habrá de evaluarse a su tiempo, evitando tanto la tecnofilia ingenua como el rechazo apriorístico.
¿Signo de los tiempos? O cuestionamiento del tiempo y del espacio
La IA constituye probablemente un “signo de los tiempos” o un “signo que cuestiona el tiempo y el espacio”, interpelando la fe y la praxis eclesial, así como lo que significa sincrónico-asincrónico; online y offline. Solo recién estamos descubriendo la transformación cultura que esto implica. Por otro lado, aparece su potencial para personalizar, incluir y expandir lenguajes simbólicos es real, sin embargo, esto solo ocurre cuando hay un gobierno responsable, que privilegia el encuentro y la comunidad.
En clave sinodal, la Iglesia está llamada a aprender (discernir con ciencia y sabiduría), enseñar (traducir el kerigma en itinerarios verificables) y cuidar (proteger personas y vínculos) en un ecosistema digital que no es periférico, sino cotidiano. La consigna operativa es simple y exigente: usar la IA como socia de la misión, nunca como sustituto de la mediación humana y sacramental, aún menos de la presencia divina.
Notas:
1. P. Heriberto Cabrera Reyes, sdb, sacerdote salesiano, Doctor en teología práctica, especialista en pastoral y catequesis. Académico de la Pontificia Universidad Católica de Chile y Secretario adjunto para la pastoral de la CECh.
2. El coste económico total del ciberdelito se proyecta en ≈ USD 10.5–12.2 billones anuales en 2025 (daños agregados; no equivale solo a “dinero robado”). https://cybersecurityventures.com/official-cybercrime-report-2025/?utm_source=chatgpt.com; https://blog.camelsecure.com/el-da%C3%B1o-por-ciberdelitos-alcanzar%C3%A1-a-105-billones-de-d%C3%B3lares-en-2025.
3. El "estado de lo digital" en Chile en 2025. 19,8 millones población en Chile; 30,7 millones de conexiones móviles celulares activas; 18,6 millones de personas que usaban Internet; 14,8 millones de identidades de usuarios de redes sociales; 18,6 millones de usuarios de internet; 1,17 millones de personas no usan internet; 14,8 millones de usuarios de YouTube; 12,9 millones de usuarios de Facebook; 12,9 millones de usuarios de Instagram; 14,6 millones de usuarios de TikToK; 3,47 millones de usuarios de X. https://datareportal.com/reports/digital-2025-chile
4. Fuente: Harvard Business review. El Economista
5. Véanse las críticas de Yann LeCun.
6. Douglas Hofstadter (2007) habla de “fluidez superficial”; Daniel Dennet (2018) de“Habilidades sin comprensión”, Luciano Floridi (2019) de “Una IA sin semántica”.
7. Sugiero para esta parte leer CELAM, La Inteligencia Artificial. Una mirada pastoral desde América Latina y el Caribe, 2024. https://repositorio.celam.org/s/repositorio/item/921
8. Para una aproximación al tema véase Dicasterio para la Doctrina de la Fe. Dicasterio para la cultura y la educación. Antiqua et nova - Nota sobre la relación entre la inteligencia artificial y la inteligencia humana (28 de enero de 2025). https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_sp.html