Editorial 53

¿Un submarino sabe nadar?

Editorial 53

¿Un submarino sabe nadar?
Compartir

¿Un submarino sabe nadar? La pregunta que alguna vez me formulara el profesor Javier Blanco, experto en Inteligencia Artificial de la Universidad Nacional de Córdoba, me pareció en su momento divertida para poder empezar a entender estas nuevas tecnologías desde el costado más accesible a la mayoría de las personas que usamos a diario alguna mediación técnica con el mundo en que vivimos.

Desde el 5 al 7 de setiembre tuvo lugar el Festival “Creatividad, educación e IA. Nuevas perspectivas sobre la convivencia” que organizamos en Artlab junto con ellos y el Goethe Institut de Buenos Aires. La ocasión nos sirvió para pensar en algunos asuntos más urgentes vinculados a esta tecnología, identificar preguntas y problemas, pero también perderle el miedo y entenderla.

Por eso celebro particularmente que hayan sido días de tanta concurrencia, que las dos mesas que organizó Fundación Medifé -sobre las posibilidades de su legislación y la del problema de sesgos en datos y resultados- congregaron mucho público entusiasta y curioso y que la presencia del invitado alemán Boris Eldagsen, reconocido fotógrafo y experto en el tratamiento de imágenes con IA.

Comparto algunas de las cosas que pude sacar en limpio. Los invito, además, a explorar las creación artísticas que se realizan por ese nuevo medio tecnológico y a -retomando la pregunta del profe Blanco- a pensar que no se trata de antropomorfizar una tecnología, pensarla como si fuese un humano, sino de conocer más y temer menos. Es un gran tema de gobernanza.

 

Algunos de los desafíos epistémicos del uso de la Inteligencia Artificial (IA) incluyen:

1. Sesgo algorítmico: los algoritmos pueden perpetuar sesgos (distorsión de los resultados por una influencia injusta o parcial) existentes en los datos de entrenamiento, lo que puede llevar a resultados injustos o discriminatorios. Por ejemplo, cuando los programas de reconocimiento facial se elaboran con datos de personas blancas y entonces no se reconocen caras de otras etnias.

2. Falta de transparencia: las decisiones tomadas por la IA pueden ser opacas, lo que dificulta entender cómo se llegó a una determinada conclusión.

3. Limitaciones en la comprensión: la IA puede carecer de comprensión contextual y semántica, lo que puede llevar a malinterpretaciones o errores.

 

4. Dependencia de datos: la IA requiere grandes cantidades de datos de alta calidad, lo que puede ser un desafío en algunos dominios.

5. Riesgo de manipulación: la IA puede ser vulnerable a manipulaciones o ataques maliciosos.

6. Problemas éticos: el uso de la IA plantea cuestiones éticas, como la privacidad, la responsabilidad y el impacto en el empleo. En nuestro país falta mucha legislación sobre datos personales

7. Desafíos de interpretación: la interpretación de los resultados de la IA puede ser difícil, especialmente en dominios complejos. Por eso estas ciencias necesitan de más personas que tengan deseos de estudiarlas, transdisciplinariamente.

8. Falta de explicabilidad: la IA puede carecer de explicabilidad, lo que dificulta entender las decisiones tomadas.

9. Riesgo de sobreconfianza: la confianza excesiva en la IA puede llevar a errores o malas decisiones.

10. Desafíos de evaluación: evaluar el rendimiento de la IA puede ser difícil, especialmente en entornos complejos.

Estos desafíos epistémicos destacan la necesidad de abordar los aspectos éticos, metodológicos y técnicos del uso de la IA para garantizar su uso responsable y efectivo. Pero también es enorme el avance, un modo nuevo de disponer de información de manera veloz y segura.

Este campo de las nuevas tecnologías es un área que interesa mucho, en la que debemos -como Fundación que promueve el conocimiento- generar oportunidades de reflexión.

Que tengamos un buen mes.

 

Daniela Gutierrez
Gerenta General
Fundación Medifé

¿Un submarino sabe nadar? La pregunta que alguna vez me formulara el profesor Javier Blanco, experto en Inteligencia Artificial de la Universidad Nacional de Córdoba, me pareció en su momento divertida para poder empezar a entender estas nuevas tecnologías desde el costado más accesible a la mayoría de las personas que usamos a diario alguna mediación técnica con el mundo en que vivimos.

Desde el 5 al 7 de setiembre tuvo lugar el Festival “Creatividad, educación e IA. Nuevas perspectivas sobre la convivencia” que organizamos en Artlab junto con ellos y el Goethe Institut de Buenos Aires. La ocasión nos sirvió para pensar en algunos asuntos más urgentes vinculados a esta tecnología, identificar preguntas y problemas, pero también perderle el miedo y entenderla.

Por eso celebro particularmente que hayan sido días de tanta concurrencia, que las dos mesas que organizó Fundación Medifé -sobre las posibilidades de su legislación y la del problema de sesgos en datos y resultados- congregaron mucho público entusiasta y curioso y que la presencia del invitado alemán Boris Eldagsen, reconocido fotógrafo y experto en el tratamiento de imágenes con IA.

Comparto algunas de las cosas que pude sacar en limpio. Los invito, además, a explorar las creación artísticas que se realizan por ese nuevo medio tecnológico y a -retomando la pregunta del profe Blanco- a pensar que no se trata de antropomorfizar una tecnología, pensarla como si fuese un humano, sino de conocer más y temer menos. Es un gran tema de gobernanza.

 

Algunos de los desafíos epistémicos del uso de la Inteligencia Artificial (IA) incluyen:

1. Sesgo algorítmico: los algoritmos pueden perpetuar sesgos (distorsión de los resultados por una influencia injusta o parcial) existentes en los datos de entrenamiento, lo que puede llevar a resultados injustos o discriminatorios. Por ejemplo, cuando los programas de reconocimiento facial se elaboran con datos de personas blancas y entonces no se reconocen caras de otras etnias.

2. Falta de transparencia: las decisiones tomadas por la IA pueden ser opacas, lo que dificulta entender cómo se llegó a una determinada conclusión.

3. Limitaciones en la comprensión: la IA puede carecer de comprensión contextual y semántica, lo que puede llevar a malinterpretaciones o errores.

 

4. Dependencia de datos: la IA requiere grandes cantidades de datos de alta calidad, lo que puede ser un desafío en algunos dominios.

5. Riesgo de manipulación: la IA puede ser vulnerable a manipulaciones o ataques maliciosos.

6. Problemas éticos: el uso de la IA plantea cuestiones éticas, como la privacidad, la responsabilidad y el impacto en el empleo. En nuestro país falta mucha legislación sobre datos personales

7. Desafíos de interpretación: la interpretación de los resultados de la IA puede ser difícil, especialmente en dominios complejos. Por eso estas ciencias necesitan de más personas que tengan deseos de estudiarlas, transdisciplinariamente.

8. Falta de explicabilidad: la IA puede carecer de explicabilidad, lo que dificulta entender las decisiones tomadas.

9. Riesgo de sobreconfianza: la confianza excesiva en la IA puede llevar a errores o malas decisiones.

10. Desafíos de evaluación: evaluar el rendimiento de la IA puede ser difícil, especialmente en entornos complejos.

Estos desafíos epistémicos destacan la necesidad de abordar los aspectos éticos, metodológicos y técnicos del uso de la IA para garantizar su uso responsable y efectivo. Pero también es enorme el avance, un modo nuevo de disponer de información de manera veloz y segura.

Este campo de las nuevas tecnologías es un área que interesa mucho, en la que debemos -como Fundación que promueve el conocimiento- generar oportunidades de reflexión.

Que tengamos un buen mes.

 

Daniela Gutierrez
Gerenta General
Fundación Medifé

Contenido vinculado

FRANCOIS DUBET

El sociólogo francés François Dubet visitará el país en noviembre. Recibirá el reconocimiento de Dr. Honoris Causa en la Facultad de Ciencias Sociales de la UBA, donde abrirá las XVI Jornadas de Sociología. Conocer, comprender, transformar. Los desafíos de la sociología de nuestro tiempo (del 3 al 7 de noviembre). Su agenda está gestionada por el Centro Franco-Argentino de Altos Estudios en Ciencias Sociales y Humanidades de la UBA y su estadía en Buenos Aires cuenta con el apoyo del Institut français d’Argentine y Fundación Medifé. · Lunes 3 de noviembre a las 18 h | Facultad de Ciencias Sociales UBA Conferencia de apertura El porvenir ya no es lo que era. Reconocimiento como Dr. Honoris Causa. · Miércoles 5 de noviembre a las 18 h | Campus Miguelete UNSAM  Conferencia El rol de las ciencias sociales frente a las desigualdades y el declive de la justicia social. Aula Tanque. Algunos de sus títulos: - El nuevo régimen de las desigualdades solitarias - La época de las pasiones tristes  Lo que nos une - ¿Por qué preferimos la desigualdad? - ¿Para qué sirve realmente un sociólogo? - Repensar la justicia social   François Dubet  (1946) es docente magistral de la École des Hautes Études en Sciences Sociales de París y profesor emérito de Sociología en la Universidad de Burdeos II. Es uno de los principales referentes en el campo de la sociología de la educación. Sus investigaciones se centran en la marginalidad juvenil, las desigualdades sociales, la inmigración y el carácter inclusivo o excluyente de las instituciones escolares. 

Editorial 66

A partir de la presencia de Fundación Medifé en las Jornadas de Salud Mental que se llevaron a cabo en Mar del Plata el 19 y 20 del mes pasado, algunas ideas quedaron resonando que quisiera retomar. Trabajamos, en ambos paneles, sobre los desafíos que la Inteligencia Artificial no trae; no sobre sus ruidos apocalípticos, sino más bien acerca de la afección de nuestra condición humana, los deseos, la creación, la palabra -por ejemplo- y estos cuerpos que llevamos puestos. Quiero compartirles una pequeña reflexión sobre el tema. Escuchamos mucho hablar sobre el impacto económico y social de la inteligencia generativa, pero ¿habrá cambios más profundos, que nos toquen como especie hablante y sintiente? Paradógicamente todo lo que se está pensando en este sentido, nos está obligando a regresar sobre conceptos que pensábamos lejanos y que al haber sido fundantes de la modernidad que creíamos eterna, ya los dábamos por sentados. Resulta que el juicio, los afectos y la mismísima idea de inteligencia deber ser redefinidos. La IA nos confronta con la existencia de una nueva forma de inteligencia, una cuya escala y velocidad nos superan. Ya la humanidad no puede arrogarse ser lo único “inteligente” sobre la tierra, sino que su singularidad perdida deberá refrescar las relaciones que establecemos con el conocimiento. Si ya acumular y procesar datos, incluso recordarlos, no es para la humanidad…es un buen momento para revalorizar nuestra curiosidad, los atajos e intersticios, la habilidad de pensar lateralmente, poder hacer buenas preguntas y la sabiduría para interpretar datos e información en contextos éticos y afectivos. Margarita Martínez, en una tarde lluviosa marplatense, nos dijo que el juicio en tanto que dimensión experiencial y ética, es un territorio humano. No hay IA capaz de involucrar intuición y contexto moral a las decisiones que tomamos; ésta noticia es también un imperativo a la reflexión. Tenemos nuevos horizontes pedagógicos, nuevos desafíos personales y sociales que urge abordar. Ninguna máquina es responsable, ninguna tiene agencia moral por ahora. Y este mundo complejo en que vivimos parece necesitarnos cada día más. Pero, además, las máquinas aun no reemplazan el entramado de vulnerabilidad, contradicción y propósito que implica la sensible vida humana. La singularidad de cada una de nuestras vidas, con todo lo vivido, es insustituible. Y nuestra palabra, nuestra mirada con otros. Sostener conversaciones profundas y verdaderas tanto sobre la intimidad como sobre lo social es un desafío importante para la humanidad, podemos conectarnos y no sólo procesar datos. Celebro que cada tanto nos salga una risita nervios, una mirada cómplice, un silencio incómodo. Es en la vulnerabilidad de exponernos, de no saber exactamente qué decir, donde reside la posibilidad de una conexión auténtica. Los lazos verdaderos se construyen sobre esa base de mutualidad y riesgo, no de perfecta predicción. Tomémonos el tiempo de pensar qué más somos capaces de ofrecer a las generaciones que nos siguen, cómo transmitir lo importante y crucial, no estamos en condiciones de entregarlo todo.   Daniela Gutierrez Gerenta General Fundación Medifé

Editorial 65

En unas semanas estaremos acompañando, como ya lo venimos haciendo desde hace varias ediciones, las Jornadas de Salud Mental de Medifé. En ese contexto Fundación Medifé presenta, junto con la coordinación general del ESM y la gerencia de la compañía, a profesionales cuyo trabajo intelectual ofrece ocasión de pensar juntos las condiciones de existencia de este tiempo y por tanto agregar contexto al quehacer profesional de quienes atienden la salud mental en Medifé. Este año nos acompañan Margarita Martínez, experta en Comunicación y teoría de la técnica y Daniela Danelinck, filósofa. En los paneles de apertura y cierre de las JSM, entonces, retomaremos un marco ampliado para la conversación sobre aspectos que son actuales, vertiginosos y determinantes al momento de entender mejor cómo y por qué nuestra vida es afectada. Empezaremos las Jornadas conversando -al modo humano- acerca de los soportes técnicos que existen desde siempre para hacer posible la vida y que quedarán como huella de las sociedades que los utilizamos. El entorno técnico y artificial que nos acompaña nos atraviesa y nos configura hoy da cuenta de nuestra condición humana y de qué es posible pensar como futuro. El panel de cierre, del encuentro marplatense, entonces, vinculará esta realidad contemporánea con la subjetividad, retomando quizás algo de lo que habrá circulado por las variadas mesas de presentación de trabajos. En este entorno, FM, también presentará su colección Lecturas éxtimas, que en el sello editorial tenemos dedicada a los profesionales y lectores interesados en la tangencia del psicoanálisis con otros asuntos que le son cercanos. Estamos muy contentos, de la cantidad de proyectos que se presentaron a la Convocatoria del Fondo Enlace, iniciativa que es afín a Orillas Nuevas y que llevamos adelante con nuestros aliados estratégicos; el Instituto Francés y la Fundación Williams. La idea es ofrecer a 30 proyectos de las industrias culturales y creativas un financiamiento que les permita poner en marcha lo que ya están trabajando. Se han presentado muchísimos proyectos y es una gran alegría contribuir a poner en marcha acciones culturales y creativas de tanta gente que está trabajando en esos campos a pesar de las dificultades. Finalmente fue muy interesante apoyar otra vez ArteBA, la feria de arte que se realizó el último fin de semana de agosto en Costa Salguero, durante los cinco días más de 40.000 personas participaron de este gran evento que reunió 67 galerías y fue, una vez más, punto de encuentro para el arte contemporáneo. Nos sumamos a esta nueva edición de la feria porque nuestro propósito “Cultura para la salud” nos impulsa; invitamos a muchas personas a recorrer el espacio, visitar galerías y escuchar curadores, artistas y coleccionistas.   Daniela Gutierrez Gerenta General Fundación Medifé