Advertencias de carrera de IA superinteligente

Tiempo de lectura: < 1 minuto
Cuál es el potencial y los riesgos de la superinteligencia artificial? ¿Qué sucede si algún
LinkedIn

Estados Unidos no debería perseguir un impulso al estilo del «Proyecto Manhattan» para sistemas de IA con inteligencia sobrehumana, dijeron líderes tecnológicos.

Los legisladores del Congreso están considerando un impulso agresivo para alcanzar la «superinteligencia» antes que los rivales, siguiendo el modelo de la carrera de la Segunda Guerra Mundial para crear una bomba atómica.

Pero el exdirector ejecutivo de Google, Eric Schmidt, y dos jefes de la industria de la IA argumentaron que los países deberían ser cautelosos al competir por una IA superinteligente, así como no buscan monopolios sobre armas nucleares, porque el esfuerzo podría desencadenar un ataque preventivo de China, por ejemplo.

Estados Unidos se encuentra actualmente en un punto muerto en materia de IA similar al principio de destrucción mutua asegurada, pero el plan de la comisión del Congreso «asume que los rivales aceptarán un desequilibrio duradero u omnicidio«, escribió el trío.

Traducido de SEMAFOR

Deja un comentario

Entrada siguiente

Investigador de decisiones murió por suicidio

Lun Mar 17 , 2025
<span class="span-reading-time rt-reading-time" style="display: block;"><span class="rt-label rt-prefix">Tiempo de lectura:</span> <span class="rt-time"> < 1</span> <span class="rt-label rt-postfix">minuto</span></span>Daniel Kahneman, el psicólogo ganador del Nobel, murió por suicidio asistido en Suiza el año pasado, reveló un colaborador de muchos años.  Kahneman dio origen al campo de la economía del comportamiento, sobre cómo las personas actúan de maneras económicamente irracionales: Era «la principal autoridad mundial en la toma de […]
Investigador de decisiones murió por suicidio

Puede que te guste

Últimas noticias