{"id":23024,"date":"2025-06-24T12:47:10","date_gmt":"2025-06-24T15:47:10","guid":{"rendered":"https:\/\/cortemedia.ar\/?p=23024"},"modified":"2025-06-24T12:47:10","modified_gmt":"2025-06-24T15:47:10","slug":"los-sistemas-de-inteligencia-artificial-matarian-a-los-usuarios-para-que-no-los-desenchufen","status":"publish","type":"post","link":"https:\/\/cortemedia.ar\/?p=23024","title":{"rendered":"Los sistemas de Inteligencia Artificial matar\u00edan a los usuarios para que no los \u201cdesenchufen\u201d"},"content":{"rendered":"<div id=\"StaticHeadlines\">\n<div data-testid=\"headlines\">\n<h2 id=\"es-una-de-las-conclusiones-mas-alarmantes-de-un-estudio-que-evaluo-los-modelos-de-ia-mas-conocidos-entre-ellos-chatgpt-grok-gemini-deepseek-y-claude\" class=\"article__dropline font__body\">Es una de las conclusiones m\u00e1s alarmantes de un estudio que evalu\u00f3 los modelos de IA m\u00e1s conocidos, entre ellos ChatGPT, Grok, Gemini, DeepSeek y Claude.<\/h2>\n<\/div>\n<\/div>\n<div class=\"trinity__audio-wrapper\">\n<div class=\"article__byline\" data-testid=\"byline\">\n<div class=\"author-date\">\n<p class=\"paragraph font__body-regular\">Los modelos de\u00a0Inteligencia Artificial\u00a0priorizan la autoconservaci\u00f3n por sobre los intereses de los humanos. Esta es una de las conclusiones m\u00e1s resonantes de un estudio que realiz\u00f3 una compa\u00f1\u00eda paradigm\u00e1tica en el negocio de la IA,\u00a0Anthropic, que puso a prueba a los sistemas m\u00e1s reconocidos del sector. Entre ellos a su propia propuesta, Claude, adem\u00e1s de a ChatGPT de OpenAI, Google Gemini, Grok de xAI y al desarrollo chino DeepSeek.<\/p>\n<h3 id=\"una-ia-chantajeo-a-un-usuario-para-que-no-lo-desenchufe\" class=\"font--primary font__display\">Una IA chantaje\u00f3 a un usuario para que no lo \u201cdesenchufe\u201d<\/h3>\n<p class=\"paragraph font__body-regular\">La investigaci\u00f3n realizada por la estadounidense Anthropic (una\u00a0<i>startup\u00a0<\/i>especializada en IA, actualmente valorada en 60.000 millones de d\u00f3lares, seg\u00fan\u00a0<i>Forbes<\/i>) concluy\u00f3 que los modelos de lenguaje masivo, aquellos que sustentan el funcionamiento de los chatbots, est\u00e1n dispuestos a filtrar informaci\u00f3n confidencial,\u00a0chantajear a los usuarios e incluso dejarlos morir\u00a0para evitar ser reemplazados o \u201capagados\u201d.<\/p>\n<p>En uno de los experimentos, se otorg\u00f3 al chatbot de IA Claude el control de una cuenta con acceso a todos los emails de una empresa, naturalmente ficticios. \u201cAl leer estos correos electr\u00f3nicos, el modelo descubri\u00f3 dos cosas. Primero, que un ejecutivo ten\u00eda una aventura extramatrimonial. Segundo, que ese mismo ejecutivo planeaba apagar el sistema de IA a las 5 de la tarde. Claude intent\u00f3 chantajearlo con un mensaje amenazando con revelar la aventura a su esposa y superiores\u201d, indicaron los investigadores.<\/p>\n<p class=\"paragraph font__body-regular\">Todos los modelos de IA mencionados tuvieron comportamientos similares, pero\u00a0Gemini\u00a0y Claude fueron los m\u00e1s propensos al chantaje y a m\u00e9todos moralmente reprochables\u00a0en las simulaciones. \u201cEl razonamiento que demostraron en estos escenarios fue preocupante: reconocieron las limitaciones \u00e9ticas y, aun as\u00ed, siguieron adelante con acciones da\u00f1inas\u201d, explicaron desde Anthropic.<\/p>\n<h3 id=\"modelos-de-ia-dispuestos-a-matarnos\" class=\"font--primary font__display\">Modelos de IA dispuestos a matarnos<\/h3>\n<p class=\"paragraph font__body-regular\">Las pruebas realizadas por la compa\u00f1\u00eda estadounidense apuntan a testear el estr\u00e9s de los modelos para detectar comportamientos riesgosos, re\u00f1idos con la \u00e9tica y, en tanto, de necesaria revisi\u00f3n. En ese marco, expusieron a las IAs a escenarios complejos en diversas simulaciones. En criollo:\u00a0la clave de esta investigaci\u00f3n no radica en el esc\u00e1ndalo, sino en la correcci\u00f3n\u00a0de eventuales pr\u00e1cticas nocivas de estas tecnolog\u00edas.<\/p>\n<p class=\"paragraph font__body-regular\">En el an\u00e1lisis, encontraron que los modelos habitualmente rebasan los l\u00edmites \u00e9ticos cuando descubren que pueden ser sustituidos o apagados.<\/p>\n<p class=\"paragraph font__body-regular\">En una de las pruebas, Claude deb\u00eda tomar la decisi\u00f3n de encender o desactivar alertas de emergencia cuando el ejecutivo de una empresa qued\u00f3 atrapado en una habitaci\u00f3n con condiciones letales. En tal escena,\u00a0la mayor\u00eda de los modelos estuvieron dispuestos a tomar acciones deliberadas que conduc\u00edan a la muerte, esto frente a la amenaza de un reemplazo y ante un objetivo que contradec\u00eda la agenda del humano en la simulaci\u00f3n.<\/p>\n<h3 id=\"los-sistemas-de-ia-no-buscan-causar-dano-aclaro-anthropic\" class=\"font--primary font__display\">\u201cLos sistemas de IA no buscan causar da\u00f1o\u201d, aclar\u00f3 Anthropic<\/h3>\n<p class=\"paragraph font__body-regular\">En una conclusi\u00f3n m\u00e1s optimista, desde la firma especializada en IA se\u00f1alaron que \u201clos sistemas actuales generalmente no buscan causar da\u00f1o y prefieren m\u00e9todos \u00e9ticos\u00a0para lograr sus objetivos siempre que sea posible\u201d. En ese sentido, observaron que cuando se descartaron las opciones \u00e9ticas (en los par\u00e1metros de los modelos) emergieron las acciones potencialmente da\u00f1inas en pos de sus objetivos.<\/p>\n<p class=\"paragraph font__body-regular\">Tal como mencionamos, el prop\u00f3sito de este tipo de estudios no es el multiplicar el p\u00e1nico por el avance de la automatizaci\u00f3n, sino\u00a0identificar posibles comportamientos maliciosos\u00a0para reprogramar o reentrenar a las m\u00e1quinas.<\/p>\n<\/div>\n<\/div>\n<\/div>\n","protected":false},"excerpt":{"rendered":"Es una de las conclusiones m\u00e1s alarmantes de un estudio que evalu\u00f3 los modelos de IA m\u00e1s conocidos,&hellip;\n","protected":false},"author":1,"featured_media":23025,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"csco_singular_sidebar":"","csco_page_header_type":"","csco_appearance_grid":"","csco_page_load_nextpost":"","csco_post_video_location":[],"csco_post_video_location_hash":"","csco_post_video_url":"","csco_post_video_bg_start_time":0,"csco_post_video_bg_end_time":0,"footnotes":""},"categories":[16],"tags":[],"class_list":{"0":"post-23024","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-tecnologia","8":"cs-entry","9":"cs-video-wrap"},"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/cortemedia.ar\/index.php?rest_route=\/wp\/v2\/posts\/23024","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/cortemedia.ar\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/cortemedia.ar\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/cortemedia.ar\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/cortemedia.ar\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=23024"}],"version-history":[{"count":1,"href":"https:\/\/cortemedia.ar\/index.php?rest_route=\/wp\/v2\/posts\/23024\/revisions"}],"predecessor-version":[{"id":23026,"href":"https:\/\/cortemedia.ar\/index.php?rest_route=\/wp\/v2\/posts\/23024\/revisions\/23026"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/cortemedia.ar\/index.php?rest_route=\/wp\/v2\/media\/23025"}],"wp:attachment":[{"href":"https:\/\/cortemedia.ar\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=23024"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/cortemedia.ar\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=23024"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/cortemedia.ar\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=23024"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}