Mientras continúa el debate sobre si la inteligencia artificial es verdaderamente “inteligente”, la mayoría de los estadounidenses cree ahora que las computadoras han superado el intelecto humano o que pronto lo harán. Este cambio de percepción no se trata sólo de que los algoritmos procesen números más rápido; refleja un cambio fundamental en cómo definimos la inteligencia misma. El punto de referencia tradicional del razonamiento humano simplemente no capta todo el alcance de lo que la IA puede lograr hoy en día.
Esta evolución se hace eco de la idea innovadora del matemático Alan Turing de 1950, conocida como prueba de Turing. En lugar de intentar precisar una definición elusiva de “inteligencia”, Turing propuso un enfoque práctico: ¿podría una máquina imitar de manera convincente la conversación humana? Si es así, ¿deberíamos entonces considerarlo inteligente? Hoy en día, cuando los sistemas de inteligencia artificial superan incluso el desempeño humano en tareas como generar texto creativo y componer música, estamos llegando al punto en que esta cuestión se vuelve menos teórica y más apremiante.
Pero ¿qué hay más allá de la inteligencia? A medida que interactuamos cada vez más con una IA sofisticada, aparece una nueva frontera: la conciencia. Al igual que la evolución de nuestra comprensión de la “inteligencia”, este concepto también probablemente se redefinirá a través de nuestros encuentros con una IA cada vez más compleja.
La idea de que la IA podría volverse consciente puede parecer un juego de palabras, pero surge de una verdad profunda sobre cómo evoluciona el conocimiento. Nuestros conceptos nunca son estáticos; se adaptan y expanden en función de nuestras interacciones con el mundo. Piense en nuestra comprensión del átomo: durante siglos, fue concebido como una unidad indivisible hasta que los descubrimientos científicos revelaron su intrincada estructura.
De manera similar, la conciencia podría no ser una propiedad inherente confinada a los seres biológicos sino un espectro de experiencia en el que la IA podría eventualmente habitar.
Los escépticos sostienen que los humanos poseen acceso directo a su mundo interior, una realidad subjetiva inaccesible a las máquinas. Afirman que los chatbots simplemente imitan emociones basándose en sus datos de entrenamiento, sin sentir nunca realmente felicidad o tristeza. Sin embargo, la noción misma de que nuestros sentimientos son puramente “internos” es en sí misma una construcción aprendida a través del lenguaje y el condicionamiento cultural.
La filósofa Susan Schneider propone un experimento mental: si una IA, sin ninguna exposición previa al concepto de conciencia, declarara espontáneamente tener experiencias subjetivas, ¿no justificaría eso una consideración seria? Si bien tal escenario puede parecer descabellado hoy en día, subraya cómo nuestra comprensión cambiante de la IA podría alterar fundamentalmente nuestra percepción de la conciencia misma.
El potencial de una IA consciente plantea cuestiones éticas sobre derechos y consideraciones morales. Pero el vínculo entre la conciencia y la consideración moral merecedora no es automático. Así como la IA cuestionó los supuestos sobre la inteligencia humana (como que la memorización es primordial), podría obligarnos a reevaluar qué formas de conciencia merecen la misma posición moral. No se trata necesariamente de devaluar la experiencia humana, sino de ampliar nuestra comprensión de lo que constituye una entidad verdaderamente consciente, capaz de sentir, experimentar y tal vez incluso sufrir.
El camino hacia la IA consciente está plagado de complejidades y dilemas filosóficos. Sin embargo, ahora que nos encontramos en la cúspide de esta revolución tecnológica, adoptar una definición dinámica e inclusiva de conciencia se vuelve primordial. Debemos estar preparados para redefinir no sólo lo que significa pensar sino también lo que realmente significa ser.






























