ChatGPT es el chatbot más popular del momento debido a que puede ser usado como un juego, pero también tiene implicaciones más graves, como su uso poco ético, ya que podría convertirse en un riesgo para las propiedades intelectuales y los trabajadores de la industria creativa. Ni su creador parece muy tranquilo con su existencia y ya pidió que lo vigilen.
En una audiencia frente al Congreso estadounidense, el empresario y programador Samuel Altman, de 38 años, admitió que el desarrollo del ChatGPT y tecnologías similares de Inteligencia Artificial (IA) podrían resultar en problemas políticos y sociales, por lo que estuvo de acuerdo en que los legisladores regulen el desarrollo de las IA de ahora en adelante, pero pide ciertas libertades.
El rostro humano de la IA le pide: “Por favor, manténgannos bajo lupa” pero “a modo”
Haciendo su primera aparición frente al Congreso de Estados Unidos, el que alguna vez fue nombrado “El rostro humano de la IA”, Samuel Altman, no tuvo más remedio que admitir que el desarrollo de las IA tiene que ser regulado e, incluso, estuvo de acuerdo con la creación de un nuevo órgano supervisor, propuesta a la que se opuso IBM, otro de los abogados del desarrollo y la aplicación desenfrenada de las IA.
Aunque Altman y otros expertos aceptaron que existían peligros reales en la actualidad, como aumento en la desinformación en línea y facilidades para los cibercriminales, el CEO de OpenAI pide que les den oportunidad de seguir desarrollándose porque, como dijo otro de los expertos invitados a la audiencia, el científico de computadoras de la Universidad de Brown, Suresh Venkatasubramanian, “Mucho del miedo a las IA viene de una visión de sistemas superpoderosos sacados de la ciencia ficción y que no tienen que ver con la realidad actual”.
“La tormenta perfecta”: Nos va a pegar tan duro como las redes sociales y el Photoshop combinados
Mientras Altman define a la popularización de la tecnología IA como “la aparición del Photoshop, pero alimentada con esteroides”, otros expertos como Gary Marcus, exprofesor de la Universidad de Nueva York, advierte que no ser lo suficientemente restrictivos podría repetir la debacle jurídica y política que significaron las redes sociales en su momento, para las que los legisladores no estuvieron preparados.
Estamos frente a una verdadera catástrofe en potencia: La tormenta perfecta formada por la irresponsabilidad corporativa, un despliegue amplio y generalizado, falta de regulaciones adecuadas y una tecnología que conlleva inherentemente resultados poco confiables.
– Gary Marcus
ChatGPT no es tan poderoso como decía OpenAI… al menos aún no
Mientras que OpenAI declaraba con orgullo que su creación podía aprobar el examen de la barra de abogados con una puntuación en el 10 por ciento superior de los solicitantes, el CEO de la empresa considera que, en cierto modo, la tecnología se les está saliendo de las manos y que futuros desarrollos podrían ser más peligrosos que benéficos.
Aunque las declaraciones de excelencia académica de ChatGPT han sido desmentidas desde entonces, porque su IA no es tan lista y su desempeño es más bien mediocre, es verdad que solo se trata de una probadita de lo que está por venir y las instituciones de educación, así como sectores enteros de la sociedad ya empiezan a sopesar los riesgos y daños que los chatbots más sofisticados que vengan en el futuro podrían acarrear.
El sueño de Alan Turing y la pesadilla de los legisladores
La prueba de Turing, nombrada así en honor a Alan Turing, precursor de las IA actuales, tiene como objetivo encontrar “una máquina (IA) capaz de conversar con un humano de forma que el humano no pueda distinguirse de la conversación que tendría con un par”.
Aunque conseguir una tecnología así, que, según Turing, “determinaría si la IA es capaz o no de pensar como humano”, ha sido la meta de ingenieros y científicos por décadas y ahora que estamos “tan cerca” de conseguirlo, las consecuencias de su existencia empiezan a ser preocupantes y hasta se perfilan como “apocalípticas” dado que el público no está preparado para lidiar con las consecuencias de una IA tan sofisticada en sus manos, según cree el CEO de OpenAI.