Inteligencia Artificial Noticias Tecnología

Líderes de la industria advierten sobre los riesgos de la inteligencia artificial

Con el surgimiento de ChatGPT, Bard y otros modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés), hemos escuchado advertencias de personas involucradas, como Elon Musk, sobre los riesgos que plantea la inteligencia artificial (IA). Ahora, un grupo de destacados líderes de la industria ha emitido una declaración de una sola oración confirmando efectivamente esos temores.

Mitigar el riesgo de extinción causado por la IA debería ser una prioridad global junto con otros riesgos a escala societal, como las pandemias y la guerra nuclear.

La declaración fue publicada en el Center for AI Safety, una organización con la misión de «reducir los riesgos a escala societal de la inteligencia artificial», según su sitio web. Entre los firmantes se encuentran destacados nombres de la industria de la IA, incluyendo al director ejecutivo de OpenAI, Sam Altman, y al jefe de Google DeepMind, Demis Hassabis. También añadieron sus nombres los investigadores galardonados con el Premio Turing, Geoffrey Hinton y Yoshua Bengio, considerados por muchos como los padres de la IA moderna.

Esta es la segunda declaración de este tipo en los últimos meses. En marzo, Musk, Steve Wozniak y más de 1,000 personas más pidieron una pausa de seis meses en la IA para permitir que la industria y el público se pongan al día eficazmente con la tecnología. «En los últimos meses, hemos visto cómo los laboratorios de IA están inmersos en una carrera descontrolada para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden comprender, predecir o controlar de manera confiable», declara la carta.

Aunque la IA no es (probablemente) consciente de sí misma como algunos temen, ya presenta riesgos de mal uso y daño a través de deepfakes, desinformación automatizada y más. Los LLMs también podrían cambiar la forma en que se produce contenido, arte y literatura, lo que podría afectar numerosos empleos. Recientemente, el presidente de Estados Unidos, Joe Biden, afirmó que «queda por ver» si la IA es peligrosa, y agregó: «las empresas tecnológicas tienen la responsabilidad, en mi opinión, de asegurarse de que sus productos sean seguros antes de lanzarlos al público… La IA puede ayudar a enfrentar desafíos muy difíciles como las enfermedades y el cambio climático, pero también debe abordar los posibles riesgos para nuestra sociedad, nuestra economía y nuestra seguridad nacional». En una reciente reunión en la Casa Blanca, Altman pidió la regulación de la IA debido a los riesgos potenciales.

Con muchas opiniones flotando en el ambiente, esta nueva y breve declaración pretende mostrar una preocupación común sobre los riesgos de la IA, aunque las partes no estén de acuerdo en cuáles son.

«Expertos en IA, periodistas, responsables de políticas públicas y el público en general están discutiendo cada vez más una amplia gama de riesgos importantes y urgentes de la IA», dice un preámbulo de la declaración. «Aun así, puede ser difícil expresar preocupaciones sobre algunos de los riesgos más graves de la IA avanzada. La siguiente declaración sucinta tiene como objetivo superar este obstáculo y abrir el debate. También pretende crear un conocimiento común sobre el creciente número de expertos y figuras públicas que también toman en serio algunos de los riesgos más graves de la IA avanzada».

×

Hola!

Escoge uno de nuestros contactos, estamos para ayudarte.

× ¿Cómo puedo ayudarte?