Quienes lideran la revolución de la IA también piden regulaciones, haciendo comparaciones con pandemias y guerras nucleares.
** Prepárense: la inteligencia artificial podría conducir a la extinción de la raza humana. **
El martes, cientos de líderes e investigadores de la industria de la IA, incluidos ejecutivos de Microsoft, Google y OpenAI, emitieron una advertencia aleccionadora. Afirman que la tecnología de inteligencia artificial que están diseñando podría algún día representar una amenaza real y presente para la existencia humana. Además de los horrores de las pandemias y la guerra nuclear, ven a la IA como un riesgo para la sociedad en un grado similar.
En una carta publicada por el Centro para la Seguridad de la IA, los expertos en IA ofrecieron esta declaración sucinta: "La mitigación del riesgo de extinción de la IA debe compararse con otros riesgos a escala social, como las pandemias y la guerra nuclear. Juntos como una prioridad global".
Eso es todo, eso es lo que dicen.
Fuente: Centro de Seguridad de IA
La declaración describió la inteligencia artificial como una amenaza inminente, similar a una catástrofe nuclear o una pandemia global. Pero los firmantes, estos magos de la industria de la tecnología, no lograron ampliar sus ominosas advertencias.
¿Cómo se supone que se desarrollará exactamente este escenario del fin del mundo? ¿Cuándo deberíamos marcar nuestros calendarios para el surgimiento de nuestros señores robots? ¿Por qué un invento de innovación humana como la inteligencia artificial traicionaría a su creador? El silencio de estos arquitectos de IA fue rotundo y no dieron respuestas.
De hecho, estos líderes de la industria no brindan más información que un chatbot con respuestas enlatadas. En el mundo de las amenazas globales, la inteligencia artificial parece haberse saltado la cola, venciendo el cambio climático, los conflictos geopolíticos e incluso las búsquedas de palabras clave de Google sobre invasiones extraterrestres.
Google busca inteligencia artificial en comparación con otros problemas globales como guerras, invasiones extraterrestres y cambio climático. Imagen: Google
Curiosamente, las empresas tienden a abogar por la regulación cuando les conviene. Esto puede verse como su forma de decir "queremos ser parte de la elaboración de estas regulaciones", similar a un zorro en el gallinero suplicando nuevas reglas.
También vale la pena señalar que el CEO de OpenAI, Sam Altman, ha estado presionando para que se establezca una regulación en los EE. UU. Aun así, ha amenazado con irse de Europa si los políticos del continente siguen intentando regular la IA. "Intentaremos cumplir", dijo Altman en una reunión del panel en el University College London. "Si podemos cumplir, lo haremos. Si no podemos, cesaremos las operaciones".
Para ser justos, cambió de tono unos días después y dijo que OpenAI no tenía planes de abandonar Europa. Por supuesto, esto se produjo después de que tuvo la oportunidad de discutir el tema con los reguladores durante una "semana muy productiva".
**La IA es arriesgada, pero ¿es un riesgo tan grande? **
Los expertos no han ignorado los daños potenciales de la inteligencia artificial. Una carta abierta anterior firmada por 31.810 defensores pedía una moratoria en el entrenamiento de poderosos modelos de IA, incluidos Elon Musk, Steve Wozniak, Yuval Harari y Andrew Yang.
“Estos protocolos deberían garantizar sin lugar a dudas que los sistemas que los cumplen son seguros”, decía la carta, aclarando que “esto no implica una moratoria general sobre el desarrollo de modelos de caja negra con capacidades emergentes por parte de la IA, solo que la peligrosa carrera hacia volver a la gran carrera impredecible".
El problema potencial de AI Foom (en el que AI puede mejorar sus propios sistemas, aumentando sus capacidades más allá de la inteligencia humana) se ha discutido durante años. Sin embargo, el rápido ritmo de cambio actual, junto con la gran cobertura mediática, ha puesto este debate en el centro de atención mundial.
Fuente: Revista de Periodismo de Columbia
Esto ha provocado diferentes puntos de vista sobre cómo la IA afectará el futuro de la interacción social.
Algunos imaginan una era utópica donde la inteligencia artificial interactúa con los humanos y el avance tecnológico reina de manera suprema. Otros argumentan que los humanos se adaptarán a la IA, creando nuevos puestos de trabajo en torno a la tecnología, similar al crecimiento del empleo que siguió a la invención del automóvil. Otros, sin embargo, insisten en que existe una buena posibilidad de que la IA madure y se vuelva incontrolable, lo que representa una amenaza real para la humanidad.
Hasta entonces, lo de siempre en el mundo de la IA. Vigile su ChatGPT, su Bard o su Siri, es posible que solo necesiten una actualización de software para gobernar el mundo. Pero por ahora, parece que la mayor amenaza de la humanidad no son nuestros propios inventos, sino nuestro don ilimitado para la exageración.
Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
Los fabricantes de IA advierten que su tecnología está "en riesgo de extinción"
Quienes lideran la revolución de la IA también piden regulaciones, haciendo comparaciones con pandemias y guerras nucleares.
** Prepárense: la inteligencia artificial podría conducir a la extinción de la raza humana. **
El martes, cientos de líderes e investigadores de la industria de la IA, incluidos ejecutivos de Microsoft, Google y OpenAI, emitieron una advertencia aleccionadora. Afirman que la tecnología de inteligencia artificial que están diseñando podría algún día representar una amenaza real y presente para la existencia humana. Además de los horrores de las pandemias y la guerra nuclear, ven a la IA como un riesgo para la sociedad en un grado similar.
En una carta publicada por el Centro para la Seguridad de la IA, los expertos en IA ofrecieron esta declaración sucinta: "La mitigación del riesgo de extinción de la IA debe compararse con otros riesgos a escala social, como las pandemias y la guerra nuclear. Juntos como una prioridad global".
Eso es todo, eso es lo que dicen.
Fuente: Centro de Seguridad de IA
La declaración describió la inteligencia artificial como una amenaza inminente, similar a una catástrofe nuclear o una pandemia global. Pero los firmantes, estos magos de la industria de la tecnología, no lograron ampliar sus ominosas advertencias.
¿Cómo se supone que se desarrollará exactamente este escenario del fin del mundo? ¿Cuándo deberíamos marcar nuestros calendarios para el surgimiento de nuestros señores robots? ¿Por qué un invento de innovación humana como la inteligencia artificial traicionaría a su creador? El silencio de estos arquitectos de IA fue rotundo y no dieron respuestas.
De hecho, estos líderes de la industria no brindan más información que un chatbot con respuestas enlatadas. En el mundo de las amenazas globales, la inteligencia artificial parece haberse saltado la cola, venciendo el cambio climático, los conflictos geopolíticos e incluso las búsquedas de palabras clave de Google sobre invasiones extraterrestres.
Google busca inteligencia artificial en comparación con otros problemas globales como guerras, invasiones extraterrestres y cambio climático. Imagen: Google
Curiosamente, las empresas tienden a abogar por la regulación cuando les conviene. Esto puede verse como su forma de decir "queremos ser parte de la elaboración de estas regulaciones", similar a un zorro en el gallinero suplicando nuevas reglas.
También vale la pena señalar que el CEO de OpenAI, Sam Altman, ha estado presionando para que se establezca una regulación en los EE. UU. Aun así, ha amenazado con irse de Europa si los políticos del continente siguen intentando regular la IA. "Intentaremos cumplir", dijo Altman en una reunión del panel en el University College London. "Si podemos cumplir, lo haremos. Si no podemos, cesaremos las operaciones".
Para ser justos, cambió de tono unos días después y dijo que OpenAI no tenía planes de abandonar Europa. Por supuesto, esto se produjo después de que tuvo la oportunidad de discutir el tema con los reguladores durante una "semana muy productiva".
**La IA es arriesgada, pero ¿es un riesgo tan grande? **
Los expertos no han ignorado los daños potenciales de la inteligencia artificial. Una carta abierta anterior firmada por 31.810 defensores pedía una moratoria en el entrenamiento de poderosos modelos de IA, incluidos Elon Musk, Steve Wozniak, Yuval Harari y Andrew Yang.
“Estos protocolos deberían garantizar sin lugar a dudas que los sistemas que los cumplen son seguros”, decía la carta, aclarando que “esto no implica una moratoria general sobre el desarrollo de modelos de caja negra con capacidades emergentes por parte de la IA, solo que la peligrosa carrera hacia volver a la gran carrera impredecible".
El problema potencial de AI Foom (en el que AI puede mejorar sus propios sistemas, aumentando sus capacidades más allá de la inteligencia humana) se ha discutido durante años. Sin embargo, el rápido ritmo de cambio actual, junto con la gran cobertura mediática, ha puesto este debate en el centro de atención mundial.
Fuente: Revista de Periodismo de Columbia
Esto ha provocado diferentes puntos de vista sobre cómo la IA afectará el futuro de la interacción social.
Algunos imaginan una era utópica donde la inteligencia artificial interactúa con los humanos y el avance tecnológico reina de manera suprema. Otros argumentan que los humanos se adaptarán a la IA, creando nuevos puestos de trabajo en torno a la tecnología, similar al crecimiento del empleo que siguió a la invención del automóvil. Otros, sin embargo, insisten en que existe una buena posibilidad de que la IA madure y se vuelva incontrolable, lo que representa una amenaza real para la humanidad.
Hasta entonces, lo de siempre en el mundo de la IA. Vigile su ChatGPT, su Bard o su Siri, es posible que solo necesiten una actualización de software para gobernar el mundo. Pero por ahora, parece que la mayor amenaza de la humanidad no son nuestros propios inventos, sino nuestro don ilimitado para la exageración.