Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La informacion mas relevante de la actuaidad al momento
Actualizado hace 0 minutos
Informes RPP
Día del Trabajo: ¿Ha mejorado el empleo en el Perú?
EP 1125 • 04:33
El poder en tus manos
EP74 | INFORME | Ciudadanos en contra de que personas con condenas cumplidas por delitos graves participen en elecciones
EP 74 • 02:32
Nutriagenda
EP27 | Qué cuidar en la dieta del adulto mayor
EP 27 • 33:55

¿El futuro de la inteligencia artificial o la inteligencia artificial tiene futuro?

¿Perderemos confianza en el juicio o razonamiento humano y creeremos más en la IA? ¿Hasta qué nivel de nuestras actividades diarias cederemos a la IA ante la idea de que nos hace más fácil la vida?

En las últimas semanas se discute ampliamente en redes sociales las ventajas de usar inteligencia artificial (IA) conversacional, como el ChatGPT, para realizar una serie de consultas, que están convirtiendo a esta nueva tecnología en una especie de oráculo moderno, ocupando el espacio que tuvieron en la antigüedad el Templo de Apolo en Delfos y nuestro Pachacámac, al sur de Lima.

Las plataformas que permiten interactuar con estas inteligencias artificiales, usando lenguaje natural, se están convirtiendo en fábricas de documentos, desde tareas escolares y universitarias hasta artículos y columnas periodísticas (esta no, por si acaso) e incluso ya se habla de artículos en revistas especializadas y académicas, que han sido producidos con esta ayuda tecnológica.

Los que ya las han usado saben que la calidad de la respuesta depende mucho de la estructura de la pregunta que se hace al “bot” y por supuesto, de las bases de datos y de información a las que tiene acceso. Cuanto más detallada la pregunta, suele generarse una mejor respuesta, aunque no ocurre en el 100% de los casos, pues ya se han reportado casos de respuestas notoriamente incorrectas de la IA que han motivado interesantes debates con humanos, donde la IA defendía heroicamente sus puntos de vista, pero que estaban errados.

Los peligros que puede acarrear la dependencia de las personas por estas tecnologías se centran principalmente en algo realmente básico, la confianza. ¡Lo dijo la inteligencia artificial XYZ! Y las personas pueden comenzar a creer a pie juntillas esas respuestas, porque implícitamente estamos considerando que la inteligencia artificial ha hecho uso de miles de bases de datos, ha realizado correlaciones de mucha complejidad con la información, y aplicado sus algoritmos de análisis, para obtener la respuesta que nos ofrece, y todo eso mucho más rápido que la inteligencia humana, por lo tanto, lo que dice “debe ser” cierto.

| Fuente: Unsplash

Imagínense que aplicamos estas tecnologías para realizar tomas de decisiones complejas y cruciales para la vida de las personas (estudios, trabajos, búsquedas de parejas, etc.) o la supervivencia de las empresas (fusiones, adquisiciones, IPOs, etc.), y comparamos sus respuestas con las de los asesores o consultores humanos. ¿A quién creeremos? O peor aún, si unos días antes de las elecciones generales, diciembre de 2023 o abril de 2024 o quién sabe, preguntamos a ChatGPT, ¿quién es el(la) mejor candidato(a) presidencial? (colocando explícitamente las variantes en el texto de la pregunta para que el género no sea un factor que dirija la respuesta). La plataforma de IA conversacional nos dará seguramente una respuesta. ¿Eso condicionará nuestro voto? ¿Y si lo publicamos en nuestras redes sociales, condicionaría el voto de muchos? Porque cualquier persona podría entrar a la plataforma, digitar la misma pregunta, y saldría la misma respuesta. Y entraríamos a generar lo que se conoce como “la profecía autocumplida”, que de tanto repetirla se vuelva la causa para que se cumpla en la realidad. ¿Cuán imparcial o seguro (antimanipulación) será el algoritmo de la plataforma?

Estamos entrando a una etapa de grandes transformaciones sociales por el uso cada vez más acelerado de la tecnología, especialmente de las diversas aplicaciones de la IA. ¿Perderemos confianza en el juicio o razonamiento humano y creeremos más en la IA? ¿Hasta qué nivel de nuestras actividades diarias cederemos a la IA ante la idea de que nos hace más fácil la vida?

La IA nos va a ser muy útil hasta donde le dejemos entrar. El gran desafío de la humanidad en los próximos diez años será justamente sentar las bases de la convivencia con la IA. Lo que se espera es que sea un proceso largo y no exento de problemas, del tipo ensayo y error. Así como los “millennials” y los “centennials” no conciben la vida sin la Internet porque nacieron con ella, las nuevas generaciones usarán extensamente la IA, lo que tenemos que evitar es que los algoritmos no acaben con las neuronas, sino que las potencien.

Por eso es que ya se debate que la próxima revolución tecnológica, la “quinta”, si usamos ese conteo poco ortodoxo, será la del cerebro humano, el aprovechamiento al máximo de ese pequeño universo insondable del que hoy conocemos tan poco. La ciencia y la tecnología no tienen más límites que los que nosotros les imponemos. Y el futuro se construirá con y por nosotros los humanos, siempre y cuando no cedamos el control a la IA. Menudo reto que tendrán que enfrentar las nuevas generaciones.

NOTA: “Ni el Grupo RPP, ni sus directores, accionistas, representantes legales, gerentes y/o empleados serán responsables bajo ninguna circunstancia por las declaraciones, comentarios u opiniones vertidas en la presente columna, siendo el único responsable el autor de la misma.
Fernando Ortega San Martín

Fernando Ortega San Martín Ingeniero metalúrgico e industrial

Consultor, conferencista e instructor internacional en Prospectiva y Estudios del Futuro. Chair del Nodo Perú de The Millennium Project. Actualmente, subdirector de Seguimiento y Evaluación del Concytec.

Tags

Otros columnistas

Ver más

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Últimas noticias

Contenido promocionado

Taboola
SIGUIENTE NOTA