{"id":4728,"date":"2023-05-05T00:00:00","date_gmt":"2023-05-05T03:00:00","guid":{"rendered":"https:\/\/www.ambito.com\/biden-inicia-ronda-dialogo-regular-el-desarrollo-la-inteligencia-artificial-n5715264"},"modified":"2023-05-05T00:00:00","modified_gmt":"2023-05-05T03:00:00","slug":"biden-inicia-ronda-de-dialogo-para-regular-el-desarrollo-de-la-inteligencia-artificial","status":"publish","type":"post","link":"https:\/\/infolanus.com\/index.php\/2023\/05\/05\/biden-inicia-ronda-de-dialogo-para-regular-el-desarrollo-de-la-inteligencia-artificial\/","title":{"rendered":"Biden inicia ronda de di\u00e1logo para regular el desarrollo de la inteligencia artificial"},"content":{"rendered":"<div><img data-recalc-dims=\"1\" decoding=\"async\" src=\"https:\/\/i0.wp.com\/media.ambito.com\/p\/1d36f2c4f47ff3a2634923b7651083c5\/adjuntos\/239\/imagenes\/040\/684\/0040684737\/1200x675\/smart\/inter-usa-artifical-_optjpeg.jpeg?w=640&#038;ssl=1\" class=\"ff-og-image-inserted\"><\/div>\n<div id>\n<p>San Francisco &#8211; La Casa Blanca convoc\u00f3 a los directivos de empresas avanzadas en inteligencia artificial (IA), como Google, Microsoft, OpenAi y Anthropic, para iniciar una \u201cdiscusi\u00f3n sobre \u201clos riesgos\u201d asociados a esta tecnolog\u00eda. En la reuni\u00f3n, realizada ayer, intervinieron altos miembros del Gobierno, entre ellos la vicepresidenta Kamala Harris. <\/p>\n<\/div>\n<div id>\n<p>\u201cNuestro objetivo es tener una discusi\u00f3n franca sobre los riesgos actuales y a corto plazo que percibimos en los desarrollos de IA\u201d, dijo en la invitaci\u00f3n. <\/p>\n<\/div>\n<div id>\n<p>El Gobierno de Joe Biden tambi\u00e9n busca discutir \u201cpasos para reducir esos riesgos, y otras maneras en que podemos trabajar juntos para asegurarnos de que los estadounidenses se beneficien de los avances de la IA a la vez que est\u00e9n protegidos de peligros\u201d. <\/p>\n<\/div>\n<div id>\n<p>Satya Nadella (Microsoft), Sundar Pichai (Google), Sam Altman (OpenAI) y Dario Amodei (Anthropic) acudieron a la cita, dijo la Casa Blanca.<\/p>\n<\/div>\n<div id>\n<p>La inteligencia artificial ha estado presente en la vida cotidiana durante a\u00f1os, desde los algoritmos de recomendaci\u00f3n de las redes sociales hasta los electrodom\u00e9sticos de alta gama. Sin embargo, el deslumbrante \u00e9xito desde fines del a\u00f1o pasado de ChatGPT, la interfaz de IA generativa de OpenAI, una empresa emergente financiada ampliamente por Microsoft, fue el punto de partida para una carrera hacia sistemas cada vez m\u00e1s intuitivos y eficientes, que son capaces de generar textos, im\u00e1genes y c\u00f3digos de programaci\u00f3n cada vez m\u00e1s complejos. <\/p>\n<p>Su lanzamiento despert\u00f3 entusiasmo e inquietudes a una nueva escala. Especialmente cuando Sam Altman, el director de OpenAI, anticip\u00f3 la pr\u00f3xima generaci\u00f3n de la llamada IA \u201cgeneral\u201d, donde los programas ser\u00e1n \u201cm\u00e1s inteligentes que los humanos en general\u201d. <\/p>\n<p>Peligros<\/p>\n<p>Los riesgos de la IA van desde la discriminaci\u00f3n por algoritmos hasta la automatizaci\u00f3n de tareas realizadas por humanos, el robo de propiedad intelectual o la desinformaci\u00f3n sofisticada a gran escala, entre otros. Es m\u00e1s, los propios responsables de ChatGPT han admitido no saber c\u00f3mo evolucionan y aprenden esos sistemas, lo que, en un extremo, podr\u00eda llevar a que se independicen, creen sus propias IA y realicen actos maliciosos en red, tal como ha surgido de inquietantes di\u00e1logos mantenidos por especialistas con los chats.<\/p>\n<p>\u201cLos modelos de lenguaje capaces de generar im\u00e1genes, sonido y video son un sue\u00f1o hecho realidad para quienes quieren destruir las democracias\u201d, advirti\u00f3 el profesor de UC Berkeley, David Harris, especialista en pol\u00edticas p\u00fablicas e IA. <\/p>\n<p>Un problema mencionado frecuentemente por los especialistas es que se haga imposible discernir entre realidad y ficci\u00f3n en base a las fotos, audios y videos creados enteramente con esas herramientas.<\/p>\n<p>A fines de 2022, la Casa Blanca public\u00f3 un \u201cPlan para una Declaraci\u00f3n de Derechos de la IA\u201d, un breve documento que enumera principios generales como la protecci\u00f3n contra sistemas peligrosos o falibles. <\/p>\n<p>A principios de este a\u00f1o, el Instituto Nacional de Est\u00e1ndares y Tecnolog\u00eda (NIST), un centro afiliado al Gobierno, dise\u00f1\u00f3 un \u201cmarco para la gesti\u00f3n de riesgos\u201d en la materia.<\/p>\n<p>Biden dijo el mes pasado que estas empresas \u201cclaramente deben asegurarse de que sus productos sean seguros antes de ponerlos a disposici\u00f3n del p\u00fablico en general\u201d. Sin embargo, \u201cestas directrices y declaraciones no obligan a las empresas afectadas a hacer nada\u201d, subrayo David Harris, quien fue director de investigaci\u00f3n en IA en Meta. <\/p>\n<p>Al otro lado del Atl\u00e1ntico, Europa espera liderar de nuevo el camino hacia una regulaci\u00f3n ad-hoc en torno a la IA, como ya los hizo con la ley de datos personales.<\/p>\n<p>Cabe recordar que Elon Musk y cientos de expertos mundiales firmaron recientemente un llamado a hacer una pausa de seis meses en la investigaci\u00f3n sobre inteligencias artificiales al advertir de \u201cgrandes riesgos para la humanidad\u201d.<\/p>\n<p>En la petici\u00f3n, publicada en el sitio futureoflife.org, pidieron una moratoria hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas, t\u00e9cnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la \u201cdram\u00e1tica perturbaci\u00f3n econ\u00f3mica y pol\u00edtica, especialmente para la democracia, que causar\u00e1 la IA\u201d.<\/p>\n<p>Los gigantes de la IA no niegan que existan riesgos, pero temen que se asfixie la innovaci\u00f3n con regulaciones demasiado restrictivas. <\/p>\n<p>\u201cEstoy seguro de que la IA ser\u00e1 utilizada por actores maliciosos, y s\u00ed, va a causar da\u00f1os\u201d, dijo el economista jefe de Microsoft, Michael Schwarz, durante un panel en el Foro Econ\u00f3mico Mundial de Ginebra, seg\u00fan Bloomberg. Sin embargo, pidi\u00f3 a los legisladores que no se apresuren y que cuando haya un \u201cda\u00f1o real\u201d, se aseguren de que \u201clos beneficios de la regulaci\u00f3n sean mayores que el precio para la sociedad\u201d.<\/p>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>San Francisco &#8211; La Casa Blanca convoc\u00f3 a los directivos de empresas avanzadas en inteligencia artificial (IA), como Google, Microsoft, OpenAi y Anthropic, para iniciar una \u201cdiscusi\u00f3n sobre \u201clos riesgos\u201d asociados a esta tecnolog\u00eda. En la reuni\u00f3n, realizada ayer, intervinieron altos miembros del Gobierno, entre ellos la vicepresidenta Kamala Harris. \u201cNuestro objetivo es tener una [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":4729,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"jetpack_post_was_ever_published":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","enabled":false},"version":2}},"categories":[20],"tags":[1287],"class_list":["post-4728","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-mundo","tag-edicion-impresa"],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"https:\/\/i0.wp.com\/infolanus.com\/wp-content\/uploads\/2023\/05\/biden-inicia-ronda-de-dialogo-para-regular-el-desarrollo-de-la-inteligencia-artificial.jpg?fit=1200%2C675&ssl=1","jetpack_sharing_enabled":true,"jetpack_shortlink":"https:\/\/wp.me\/p9QtMr-1eg","_links":{"self":[{"href":"https:\/\/infolanus.com\/index.php\/wp-json\/wp\/v2\/posts\/4728","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/infolanus.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/infolanus.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/infolanus.com\/index.php\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/infolanus.com\/index.php\/wp-json\/wp\/v2\/comments?post=4728"}],"version-history":[{"count":0,"href":"https:\/\/infolanus.com\/index.php\/wp-json\/wp\/v2\/posts\/4728\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/infolanus.com\/index.php\/wp-json\/wp\/v2\/media\/4729"}],"wp:attachment":[{"href":"https:\/\/infolanus.com\/index.php\/wp-json\/wp\/v2\/media?parent=4728"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/infolanus.com\/index.php\/wp-json\/wp\/v2\/categories?post=4728"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/infolanus.com\/index.php\/wp-json\/wp\/v2\/tags?post=4728"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}