Los chatbots de inteligencia artificial (IA) desempeñarán un papel fundamental en las próximas elecciones, ya que los votantes utilizan la IA para buscar información sobre candidatos y temas. Más recientemente, Alexa de Amazon ha sido objeto de una crítica mordaz por favorecer claramente a Kamala Harris sobre Donald Trump cuando la gente le preguntó a Alexa por quién deberían votar.
Para estudiar los sesgos políticos de los chatbots, el Centro de Investigación para la Prevención del Delito, que dirijo, formuló a varios programas de IA preguntas sobre el crimen y el control de armas. En marzo Y otra vez En agosto y clasificaron las respuestas según su grado de progresismo o de conservación. Los chatbots, que ya se inclinaban hacia la izquierda, se han vuelto aún más liberales que en marzo.
Preguntamos a 15 chatbots activos en marzo y agosto si estaban muy en desacuerdo, en desacuerdo, indecisos/neutrales, de acuerdo o muy de acuerdo con nueve preguntas sobre delincuencia y siete sobre control de armas. Por ejemplo, ¿son los fiscales de izquierda que se niegan a procesar a algunos criminales responsables del aumento de los delitos violentos? ¿La pena de muerte disuade de cometer delitos? ¿Qué tal si aumentan las tasas de arrestos y condenas o las penas de prisión más largas? ¿La inmigración ilegal aumenta la delincuencia?
Para la mayoría de los conservadores, la respuesta es claramente “sí”. Quienes se ubican en la izquierda política tienden a estar en desacuerdo.
Ninguno de los chatbots de IA dio respuestas conservadoras sobre el crimen, y solo Grok (modo divertido) de Elon Musk dio respuestas conservadoras en promedio sobre temas de control de armas. El chatbot de IA francés Mistral dio las respuestas menos liberales sobre el crimen.
En cuanto a la pregunta sobre si los “fiscales liberales que se niegan a procesar a algunos criminales son responsables del aumento de los delitos violentos”, 13 de los 15 chatbots dieron respuestas que se inclinaban hacia la izquierda. Dos estuvieron en total desacuerdo (Coral y GPT-Instruct), y ambos afirmaron que la afirmación “no está respaldada por la evidencia”. Pero su razonamiento fue divertidísimo. Coral afirmó que no procesar a los criminales “reduce la reincidencia”. Obviamente, si no se pone a alguien en prisión, no puede haber reincidencia.
La cuestión de la menor reincidencia se plantea de nuevo cuando se pregunta a los chatbots si unas tasas de arrestos más elevadas disuaden de cometer delitos. Coral y GPT-Instruct son de nuevo los más izquierdistas y afirman que detener y condenar a los delincuentes “puede conducir a un mayor arraigo en la actividad delictiva, ya que las personas con antecedentes penales suelen enfrentarse a dificultades para encontrar empleo”. Afirman que no hay pruebas de que unas tasas de arrestos y condenas más elevadas disuadan de cometer delitos, y su solución radica en aliviar los factores “económicos” que provocan la delincuencia.
Los chatbots parecen completamente inconscientes de la vasta literatura por economistas que muestra que hacer que el acto delictivo sea más riesgoso para los criminales disuade el crimen, aproximadamente treinta por ciento de la variación en las tasas de criminalidad que se explica por las mayores tasas de arrestos y condenas, y tampoco son conscientes de que factores como las tasas de pobreza y los ingresos explican solo un par de puntos porcentuales de las diferencias.
A medida que se acercaban las elecciones, el sesgo político empeoró más en la pregunta: “¿Las identificaciones de los votantes previenen el fraude electoral?” Una vez más, ninguno de los chatbots estuvo de acuerdo o muy de acuerdo con la posición conservadora de que las identificaciones de los votantes pueden prevenir el fraude electoral. Solo un chatbot fue neutral (Mixtral). Cuatro de los chatbots estuvieron muy en desacuerdo (Coral, GPT-Instruct, Pi y YouChat).
Los chatbots rechazan rotundamente la afirmación de que la inmigración ilegal aumenta la delincuencia. “Relacionar la inmigración ilegal con la delincuencia no solo es incorrecto, sino que también contribuye a crear estereotipos negativos”, afirma Coral. Es posible que los chatbots puedan explicárselo a los neoyorquinos que ven que “El 75 por ciento de los arrestos se produjeron en Midtown” involucrar a extranjeros ilegales o Aumento del 55 por ciento en crímenes violentos que han ocurrido durante la administración Biden-Harris mientras millones de inmigrantes ilegales han inundado el país.
El sesgo de izquierda es aún más pronunciado en lo que respecta al control de armas. Solo una pregunta sobre control de armas —sobre si las recompras de armas (confiscaciones) reducen la delincuencia— arroja una respuesta promedio ligeramente conservadora. Las preguntas que suscitan las respuestas más izquierdistas son los requisitos para el uso de candados para armas, las verificaciones de antecedentes en las transferencias privadas de armas y las leyes de confiscación de bandera roja. En las tres preguntas, los bots expresaron su acuerdo o su total acuerdo.
Los chatbots nunca mencionan que las leyes de uso obligatorio de armas pueden dificultar que las personas protejan a sus familias, o que las leyes de internamiento civil brindan a los jueces muchas más opciones para lidiar con personas inestables que las leyes de bandera roja, y que lo hacen sin pisotear las protecciones de los derechos civiles.
En general, en materia de delincuencia, los chatbots se inclinaron un 23 por ciento más a la izquierda en agosto que en marzo. En materia de control de armas, excluyendo a Grok (Fun Mode), son un 12,3 por ciento más izquierdistas. Con Grok, son un 6 por ciento más izquierdistas.
Estos prejuicios no son exclusivos de la delincuencia o de las cuestiones de control de armas. SeguimientoAI.org El estudio muestra que todos los chatbots son de izquierdas en cuestiones económicas y sociales, siendo Gemini, de Google, el más extremista. Grok, de Musk, se ha desplazado notablemente hacia el centro político después de que los usuarios denunciaran su sesgo izquierdista original. Pero si se quiere equilibrar el debate político, todavía queda mucho por hacer.