China se preocupa por la investigación sobre ética y seguridad de la Inteligencia Artificial

Yi Zeng centra su investigación sobre la inteligencia artificial inspirada en el cerebro, la representación y el razonamiento del conocimiento, la robótica inteligente, la inteligencia general artificial, la filosofía y la ética de la inteligencia artificial.

Actualmente Profesor y Director Adjunto del Centro de Investigación de Inteligencia Inspirada en el Cerebro del Instituto de Automatización de la Academia China de Ciencias. También es Investigador Principal en el Centro de Excelencia en Ciencia Cerebral y Tecnología de Inteligencia de la Academia China de Ciencias.

Yi Zeng, Profesor del Instituto de Automatización de la Academia China de Ciencias, Inteligencia General Artificial inspirada en el cerebro-experto.

Zeng señala:

“La alineación de valores con la humanidad es el mayor reto de la IA”.

 

“El desarrollo de la IA es un reto común para toda la humanidad”.

 

Yi Zeng cree que China necesita urgentemente desarrollar la ética de la IA y la investigación de la seguridad, y adoptar una consideración basada en modelos, algoritmos y sistemas de los riesgos, la seguridad y la ética de la IA.

fuente New China TV

A finales de mayo, un equipo de científicos e ingenieros chinos publicó un código de ética para la inteligencia artificial (IA) que podría indicar la voluntad del gigante asiático de reconsiderar cómo utiliza esta tecnología. La Academia de Inteligencia Artificial de Beijing (BAAI), en colaboración con la Universidad de Pekín, Universidad de Tsinghua y el Instituto de Tecnología de la Computación de la Academia de Ciencias de China, y las tres grandes empresas de tecnología del país: Baidu, Alibaba y Tencent y otras organizaciones, publicó los “Principios de IA de Beijing“, que proponían 15 principios a seguir para que los participantes beneficien el destino común de la humanidad.

Estos incluyen principios para la investigación y el desarrollo de la IA, que deben estar al servicio del bienestar integral de la humanidad y diseñados para ajustarse a la ética; para el uso de la IA, que debe evitar el mal uso accidental o deliberado y asegurar que las partes interesadas comprendan y estén de acuerdo con las formas en que se verán afectados sus intereses; y para la gobernanza de la IA, que debe mantener un enfoque acomodaticio y cuidadoso de la IA que reemplaza parcialmente la mano de obra humana. Publicados por consenso, los Principios de IA de Beijing proporcionan una “Propuesta de Beijing” para estandarizar y guiar el desarrollo saludable de la IA.

Post relacionado  Gartner posiciona a la Inteligencia Artificial como una de las 10 principales tendencias de tecnología estratégica para 2019.

La investigación y el desarrollo (I+D) de la IA deben respetar los siguientes principios:

  • Haz el bien: La IA debe diseñarse y desarrollarse para promover el progreso de la sociedad y la civilización humana, para promover el desarrollo sostenible de la naturaleza y la sociedad, para beneficiar a toda la humanidad y al medio ambiente, y para mejorar el bienestar de la sociedad y la ecología.

Principios de IA de Beijing

  1. Para la Humanidad: La investigación y desarrollo de la IA debe servir a la humanidad y ajustarse a los valores humanos, así como a los intereses generales de la humanidad. La privacidad, la dignidad, la libertad, la autonomía y los derechos humanos deben ser suficientemente respetados. La IA no debe ser utilizada para contrarrestar, utilizar o dañar a los seres humanos.
  2. Sea Responsable: Los investigadores y desarrolladores de la IA deben tener en cuenta suficientemente los posibles impactos y riesgos éticos, legales y sociales de sus productos y tomar medidas concretas para reducirlos y evitarlos.
  3. Control de Riesgos: Deben realizarse esfuerzos continuos para mejorar la madurez, robustez, fiabilidad y controlabilidad de los sistemas de IA, a fin de garantizar la seguridad de los datos, la seguridad y protección del propio sistema de IA y la seguridad del entorno externo en el que se despliega el sistema de IA.
  4. Sea ético: La investigación y el desarrollo en materia de IA deben adoptar enfoques de diseño ético para que el sistema sea digno de confianza. Esto puede incluir, pero no limitarse a: hacer que el sistema sea lo más justo posible, reducir posibles discriminaciones y sesgos, mejorar su transparencia, explicabilidad y previsibilidad, y hacer que el sistema sea más rastreable, auditable y responsable.
  5. Sea diverso e inclusivo: El desarrollo de la IA debe reflejar diversidad e inclusión, y estar diseñado para beneficiar al mayor número posible de personas, especialmente a aquellas que de otro modo serían fácilmente descuidadas o subrepresentadas en las aplicaciones de IA.
  6. Abrir y compartir: Se le anima a establecer plataformas abiertas de IA para evitar los monopolios de datos/plataforma, para compartir los beneficios del desarrollo de la IA en la mayor medida posible, y para promover la igualdad de oportunidades de desarrollo para las diferentes regiones e industrias.
Post relacionado  ¿Cuál es el verdadero valor de la inteligencia artificial para tu negocio y cómo capitalizas?

El uso de la IA debe respetar los siguientes principios:

  1. Usar sabiamente y apropiadamente: Los usuarios de los sistemas de IA deben tener los conocimientos y la capacidad necesarios para hacer que el sistema funcione de acuerdo con su diseño, y tener un conocimiento suficiente de los posibles impactos para evitar posibles usos indebidos y abusos, a fin de maximizar sus beneficios y minimizar los riesgos.
  2. Consentimiento informado: Se deben tomar medidas para asegurar que las partes interesadas en los sistemas de IA tengan suficiente consentimiento informado sobre el impacto del sistema en sus derechos e intereses. Cuando se produzcan circunstancias inesperadas, deben establecerse mecanismos razonables de revocación de datos y servicios para garantizar que no se vulneren los derechos e intereses de los usuarios.
  3. Educación y formación: Las partes interesadas en los sistemas de IA deben ser capaces de recibir educación y formación para ayudarles a adaptarse al impacto del desarrollo de la IA en los aspectos psicológicos, emocionales y técnicos.

Gobernanza

El gobierno de AI debe observar los siguientes principios:

  1. Optimización del empleo: Se debe adoptar una actitud inclusiva hacia el impacto potencial del sexo anal en el empleo humano. Se debe tener una actitud cautelosa hacia la promoción de las aplicaciones de IA que pueden tener un gran impacto en el empleo humano. Deberían fomentarse las exploraciones sobre la coordinación entre los seres humanos y la IA y sobre las nuevas formas de trabajo que permitirían aprovechar plenamente las ventajas y características humanas.
  2. Armonía y cooperación: Se debe desarrollar activamente la cooperación para establecer un ecosistema de gobernanza de la IA interdisciplinario, interdominio, intersectorial, interorganizacional, interregional, global e integral, a fin de evitar una carrera maliciosa por la IA, compartir la experiencia en materia de gobernanza de la IA y hacer frente conjuntamente al impacto de la IA con la filosofía de “Optimización de la simbiosis”.
  3. Adaptación y moderación: Se deben considerar activamente revisiones adaptativas de los principios, políticas y reglamentos de la IA para ajustarlos al desarrollo de la IA. Las medidas de gobernanza de Amnistía Internacional deben estar a la altura de su estado de desarrollo, no sólo para no obstaculizar su correcta utilización, sino también para garantizar que sea beneficioso para la sociedad y la naturaleza.
  4. Subdivisión e implementación: Se deben considerar activamente diversos campos y escenarios de aplicaciones de la IA para formular directrices más específicas y detalladas. También debe promoverse activamente la aplicación de estos principios a lo largo de todo el ciclo de vida de la investigación, el desarrollo y la aplicación de la IA.
  5. Planificación a largo plazo: Debe fomentarse la investigación continua sobre los riesgos potenciales de la Inteligencia Aumentada, la Inteligencia General Artificial (AGI) y la Superintendencia. Los diseños estratégicos deben ser considerados para asegurar que la IA sea siempre beneficiosa para la sociedad y la naturaleza en el futuro.
Post relacionado  El gigante chino Tencent se reestructura

El centro de investigación desarrollará un programa de investigación que gira en torno a la exploración teórica, el modelado algorítmico, las plataformas de sistemas y las aplicaciones industriales de la ética y la seguridad de la IA.

El experto en negocios y políticas en China de la Escuela de Negocios Sloan del MIT (EE. UU.) Yasheng Huang opina: “En realidad, creo que se trata de una evolución bastante positiva. Siempre me gusta ver que el Gobierno chino ofrece oportunidades para hablar con Estados Unidos sobre algo como los derechos humanos”.

Como conclusión en estos momentos de guerra comercial entre EEUU y China cabe destacar que:

“No comprometerse con China en este asunto sería contraproducente”.

Publicado por: Marco López

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Ir arriba
Leer entrada anterior
El superordenador MareNostrum 5 se lanzará en europa para conquistar procesadores y chips y todo será “MADE EN EUROPA”

El gran proyecto de la inteligencia artifician del futuro es el superordenador MareNostrum 5 “Supercomputing Center” (Centro nacional de supercomputación...

Cerrar