LinuxParty

Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado
 

PC Magazine entrevistó recientemente a Janelle Shane, la científica de investigación óptica y experimentadora de IA que escribió el nuevo libro "Pareces una cosa y te amo: cómo funciona la inteligencia artificial y por qué está haciendo del mundo un lugar más extraño". "You Look Like a Thing and I Love You: How Artificial Intelligence Works and Why It's Making the World a Weirder Place."

En un momento, Shane explica por qué cualquier IA de "recuadro negro" puede ser un problema:

Creo que la ética en la IA debe incluir algún reconocimiento de que las IA generalmente no nos dicen cuándo han llegado a sus respuestas a través de métodos problemáticos. Por lo general, todo lo que vemos es la decisión final, y algunas personas han tenido la tentación de tomar la decisión "como imparcial" únicamente porque estaba involucrada una máquina. Creo que el uso ético de la IA tendrá que implicar el examen de las decisiones de IA. Si no podemos mirar dentro del recuadro negro, al menos podemos realizar estadísticas sobre las decisiones de la IA y buscar problemas sistemáticos o fallas extrañas... Hay algunos investigadores que ya ejecutan estadísticas sobre algunos algoritmos de alto perfil, pero las personas que programan estos algoritmos tienen la responsabilidad de hacer la debida diligencia en su propio trabajo. Esto es además de ser más ético acerca de si un algoritmo particular debe ser construido en absoluto...

Hay aplicaciones donde queremos un comportamiento extraño, no humano. Y luego hay aplicaciones en las que realmente preferiríamos evitar la rareza. Desafortunadamente, cuando usa algoritmos de aprendizaje automático, donde no les decimos exactamente cómo resolver un problema en particular, pueden haber peculiaridades extrañas ocultas en las estrategias que eligen. 

Shane contribuyó a la serie "Op-Eds From the Future" del New York Times, canalizando a un ecologista conductual en el año 2031 defendiendo "los patinetes salvajes de Central Park" que la humanidad había coexistido con por una década.

Pero en la entrevista, ella se muestra escéptica de que alguna vez logremos vehículos autónomos reales y totalmente autónomos: es mucho más fácil hacer una IA que siga las carreteras y obedezca las reglas de tráfico que hacer una IA que evite fallas extrañas. Es exactamente ese problema:

Hay tanta variedad en el mundo real y tantas cosas extrañas que suceden que las IA no pueden haberlo visto todo durante el entrenamiento. Los humanos son relativamente buenos en el uso de su conocimiento del mundo para adaptarse a nuevas circunstancias, pero las IA son mucho más limitadas y tienden a ser terribles.

Por otro lado, las IA son mucho mejores para conducir de manera consistente que los humanos. ¿Habrá algún momento en el que la consistencia de la IA supere los problemas técnicos extraños, y nuestras compañías de seguros comiencen a incentivarnos a usar autos sin conductor? ¿O la idea de los problemas técnicos será demasiado aterradora? No estoy seguro.

Shane entrenó a una red neuronal en 162,000 titulares de Slashdot en 2017, con titulares alternativos de estilo de realidad como "Microsoft para desarrollar la ley de programación" y "Más usuarios de Pong para el proyecto Kernel". Alcanzado para hacer comentarios esta semana, Shane describió cuál podría ser el mayor peligro de la IA hoy. "En el futuro previsible, no tenemos que preocuparnos de que la IA sea lo suficientemente inteligente como para tener sus propios pensamientos y objetivos". "En cambio, el peligro es que pensamos que la IA es más inteligente de lo que es, y confiamos demasiado en sus decisiones".

Pin It

Escribir un comentario


Código de seguridad
Refescar



Redes:



 

Suscribete / Newsletter

Suscribete a nuestras Newsletter y periódicamente recibirás un resumen de las noticias publicadas.

Donar a LinuxParty

Probablemente te niegues, pero.. ¿Podrías ayudarnos con una donación?


Tutorial de Linux

Nos obligan a moslestarte con la obviedad de que este sitio utiliza Cookies. Ver política