California está construyendo el futuro, para bien o para mal. ¿Qué sigue? - كورة برس

California está construyendo el futuro, para bien o para mal. ¿Qué sigue?

جوجل بلس

Aunque el grupo de trabajo no dio una cifra precisa sobre cómo se podría compensar a los descendientes de personas esclavizadas por el exceso de vigilancia, el encarcelamiento masivo y la discriminación en la vivienda, los economistas que lo asesoraron estimaron que las pérdidas sufridas por los residentes negros del estado pueden ascender a cientos de miles de millones. de dólares Queda por ver si la compensación será realmente aprobada.

La conversación sobre las reparaciones muestra que California tiene una capacidad única para aceptar su problemática historia. Pero ese pensamiento no siempre se extiende al futuro. Los sistemas de inteligencia artificial se utilizan para moderar el contenido en las redes sociales, evaluar las solicitudes universitarias, revisar los currículums para trabajos, generar fotos y obras de arte falsas, interpretar los datos de tráfico recopilados en la zona fronteriza e identificar sospechosos en investigaciones criminales. Los modelos de lenguaje como ChatGPT, creado por la empresa OpenAI con sede en San Francisco, también han llamado mucho la atención por su potencial para alterar campos como el diseño, el derecho y la educación.

Pero si el éxito de la IA se puede medir en valoraciones de miles de millones de dólares y lucrativas OPI, sus fracasos los soporta la gente común. Los sistemas de IA no son neutrales; están capacitados en grandes conjuntos de datos que incluyen, por ejemplo, material de explotación sexual o datos policiales discriminatorios. Como resultado, reproducen y amplifican los peores sesgos de nuestra sociedad. Por ejemplo, el software de reconocimiento racial que se utiliza en las investigaciones policiales suele identificar erróneamente a las personas negras y marrones. Es más probable que los prestamistas hipotecarios impulsados ​​por IA nieguen préstamos hipotecarios a personas de color, lo que ayuda a perpetuar la desigualdad en la vivienda.

Parece que este es el momento en que podemos aplicar el pensamiento histórico a la cuestión de la tecnología para que podamos evitar que se repitan las injusticias resultantes de los cambios de paradigma anteriores. En abril, dos legisladores presentaron un proyecto de ley en la Asamblea Estatal que busca prohibir el sesgo algorítmico. El Writers Guild of America, que actualmente está en huelga, ha incluido restricciones en el uso de IA en sus demandas. La resistencia a la redundancia también proviene de la industria tecnológica. Hace tres años, Timnit Gebru, jefe del equipo de IA ética de Google, fue despedido después de dar la voz de alarma sobre los peligros de los modelos de lenguaje como GPT-3. Pero ahora incluso los ejecutivos de tecnología se han vuelto cautelosos: en su testimonio ante el Senado, Sam Altman, director ejecutivo de OpenAI, reconoció que los sistemas de IA deben ser regulados.

La pregunta que enfrentamos tanto en las reparaciones como en AI, en última instancia, no es tan diferente de la que surgió cuando un fraile franciscano recorrió el Camino Real en 1769. No es tanto “¿Cómo será el futuro?”, aunque es una pregunta emocionante. — sino “¿Quién tendrá derecho al futuro? ¿A quién podría beneficiar la reparación social o la nueva tecnología, y quién podría resultar perjudicado?” La respuesta puede decidirse en California.


Laila Lalami es autor de cuatro novelas, entre ellas Los otros americanos. Su libro más reciente es de no ficción, Ciudadanos condicionales. Ella vive en Los Ángeles. Benjamín Mara es ilustrador, dibujante y director de arte. Sus ilustraciones para Wayfaring Strangers: Acid Nightmares de Numero Group fueron nominadas a un Grammy.