Como adoptar un enfoque consciente da IA ​​reduce os conxuntos de datos sesgados

Conxuntos de datos sesgados e IA ética

As solucións baseadas en IA precisan que os conxuntos de datos sexan eficaces. E a creación deses conxuntos de datos está chea dun problema de sesgo implícito a nivel sistemático. Todas as persoas sofren de prexuízos (tanto conscientes como inconscientes). Os prexuízos poden adoptar calquera número de formas: xeográfica, lingüística, socioeconómica, sexista e racista. E eses prexuízos sistemáticos están incorporados aos datos, o que pode dar lugar a produtos de IA que perpetúan e magnifican o sesgo. As organizacións necesitan un enfoque consciente para mitigar o nesgo que se introduce nos conxuntos de datos.

Exemplos que ilustran o problema do sesgo

Un exemplo notable deste sesgo do conxunto de datos que obtivo moita prensa negativa nese momento foi unha solución de lectura de currículo que favorecía aos candidatos masculinos sobre as mulleres. Isto débese a que os conxuntos de datos da ferramenta de contratación desenvolvéronse utilizando currículos da última década cando a maioría dos candidatos eran homes. Os datos estaban sesgados e os resultados reflectían ese sesgo. 

Outro exemplo amplamente informado: na conferencia anual de desenvolvedores de Google I/O, Google compartiu unha vista previa dunha ferramenta de asistencia dermatolóxica impulsada pola intelixencia artificial que axuda á xente a comprender o que está a suceder cos problemas relacionados coa súa pel, cabelo e uñas. O asistente de dermatoloxía subliña como a IA está a evolucionar para axudar coa atención sanitaria, pero tamén destacou o potencial de que o sesgo se introduza na IA a raíz das críticas de que a ferramenta non é adecuada para as persoas de cor.

Cando Google anunciou a ferramenta, a compañía sinalou:

Para asegurarnos de que estamos a crear para todos, o noso modelo ten en conta factores como a idade, o sexo, a raza e os tipos de pel, desde a pel pálida que non se broncea ata a pel marrón que raramente se queima.

Google, usando a intelixencia artificial para axudar a atopar respostas ás enfermidades comúns da pel

Pero un artigo en Vice dixo que Google non utilizou un conxunto de datos inclusivo:

Para realizar a tarefa, os investigadores utilizaron un conxunto de datos de adestramento de 64,837 imaxes de 12,399 pacientes situados en dous estados. Pero dos miles de afeccións da pel que aparecen na imaxe, só o 3.5 por cento proviñan de pacientes con tipos de pel Fitzpatrick V e VI, os que representan a pel marrón e a pel marrón escura ou negra, respectivamente. O 90 por cento da base de datos estaba composta por persoas con pel clara, pel branca máis escura ou pel marrón clara, segundo o estudo. Como resultado da mostraxe sesgada, os dermatólogos din que a aplicación pode acabar diagnosticando demasiado ou menos a persoas que non son brancas.

Vice, a nova aplicación de dermatoloxía de Google non foi deseñada para persoas con pel máis escura

Google respondeu dicindo que perfeccionaría a ferramenta antes de publicala formalmente:

A nosa ferramenta de asistencia dermatolóxica impulsada pola intelixencia artificial é a culminación de máis de tres anos de investigación. Desde que o noso traballo apareceu en Nature Medicine, seguimos desenvolvendo e perfeccionando a nosa tecnoloxía coa incorporación de conxuntos de datos adicionais que inclúen datos doados por miles de persoas e millóns de imaxes máis seleccionadas sobre a pel.

Google, usando a intelixencia artificial para axudar a atopar respostas ás enfermidades comúns da pel

Por moito que poidamos esperar que a IA e os programas de aprendizaxe automática poidan corrixir estes prexuízos, a realidade segue a ser: só son así intelixente xa que os seus conxuntos de datos están limpos. Nunha actualización do vello adagio de programación lixo dentro/lixo fóra, As solucións de IA só son tan fortes como a calidade dos seus conxuntos de datos desde o principio. Sen unha corrección dos programadores, estes conxuntos de datos non teñen a experiencia previa para arranxar por si mesmos, xa que simplemente non teñen outro marco de referencia.

Construír conxuntos de datos de forma responsable é o núcleo de todo intelixencia artificial ética. E a xente está no núcleo da solución. 

A IA consciente é a IA ética

O sesgo non ocorre no baleiro. Os conxuntos de datos non éticos ou sesgados veñen de adoptar un enfoque incorrecto durante a fase de desenvolvemento. A forma de combater os erros de sesgo é adoptar un enfoque responsable e centrado no ser humano que moitos na industria chaman AI consciente. Mindful AI ten tres compoñentes críticos:

1. A IA consciente está centrada no ser humano

Dende o inicio do proxecto de IA, nas etapas de planificación, as necesidades das persoas deben estar no centro de cada decisión. E iso significa que todas as persoas, non só un subconxunto. É por iso que os desenvolvedores deben confiar nun equipo diverso de persoas con base global para adestrar aplicacións de IA para que sexan inclusivas e sen prexuízos.

A contratación colectiva dos conxuntos de datos dun equipo global e diverso garante que se identifiquen e filtren cedo os prexuízos. Os de diferentes etnias, grupos de idade, xéneros, niveis educativos, orixes socioeconómicas e localizacións poden detectar máis facilmente conxuntos de datos que favorecen un conxunto de valores sobre outro, eliminando así os prexuízos non intencionados.

Bota unha ollada ás aplicacións de voz. Ao aplicar un enfoque intelixente de IA e aproveitar o poder dun grupo global de talentos, os desenvolvedores poden dar conta de elementos lingüísticos como diferentes dialectos e acentos nos conxuntos de datos.

Establecer un marco de deseño centrado no ser humano desde o principio é fundamental. Percorre un longo camiño para garantir que os datos xerados, seleccionados e etiquetados cumpran coas expectativas dos usuarios finais. Pero tamén é importante manter aos humanos informados durante todo o ciclo de vida do desenvolvemento do produto. 

Os humanos no bucle tamén poden axudar ás máquinas a crear unha mellor experiencia de IA para cada público específico. En Pactera EDGE, os nosos equipos de proxectos de datos de IA, localizados en todo o mundo, entenden como as diferentes culturas e contextos poden afectar a recollida e conservación de datos fiables de formación en IA. Teñen as ferramentas necesarias para marcar problemas, supervisalos e solucionalos antes de que se poña en funcionamento unha solución baseada en IA.

Human-in-the-loop AI é un proxecto de "rede de seguridade" que combina os puntos fortes das persoas e os seus diversos antecedentes coa potencia informática rápida das máquinas. Esta colaboración humana e IA debe establecerse desde o inicio dos programas para que os datos sesgados non formen unha base no proxecto. 

2. A IA consciente é responsable

Ser responsable é garantir que os sistemas de IA estean libres de prexuízos e que estean fundamentados na ética. Trátase de ter en conta como, por que e onde se crean os datos, como son sintetizados polos sistemas de IA e como se usan para tomar unha decisión, decisións que poden ter implicacións éticas. Unha forma de facelo é traballar con comunidades pouco representadas para ser máis inclusivas e menos tendenciosas. No campo das anotacións de datos, novas investigacións están a resaltar como un modelo de varias tarefas con varios anotadores que trata as etiquetas de cada anotador como subtarefa separada pode axudar a mitigar os posibles problemas inherentes aos métodos típicos de verdade do terreo onde os desacordos dos anotadores poden deberse a subrepresentacións e pode ser ignorado na agregación de anotacións a unha única verdade do terreo. 

3. De confianza

A fiabilidade provén de que unha empresa sexa transparente e explicable sobre como se adestra o modelo de IA, como funciona e por que recomendan os resultados. Unha empresa necesita experiencia coa localización de IA para que os seus clientes poidan facer as súas aplicacións de IA máis inclusivas e personalizadas, respectando os matices críticos na linguaxe local e as experiencias dos usuarios que poden facer ou romper a credibilidade dunha solución de IA dun país a outro. . Por exemplo, unha empresa debe deseñar as súas aplicacións para contextos personalizados e localizados, incluídos idiomas, dialectos e acentos en aplicacións baseadas en voz. Deste xeito, unha aplicación ofrece o mesmo nivel de sofisticación da experiencia de voz a todos os idiomas, desde o inglés ata os idiomas pouco representados.

Xustiza e Diversidade

En definitiva, a IA consciente garante que as solucións se constrúen a partir de conxuntos de datos xustos e diversos nos que se supervisan e avalían as consecuencias e o impacto de resultados particulares antes de que a solución saia ao mercado. Ao ser conscientes e incluír aos humanos en cada parte do desenvolvemento da solución, axudamos a garantir que os modelos de IA se manteñan limpos, mínimamente tendenciosos e o máis éticos posible.

¿Que pensas?

Este sitio usa Akismet para reducir o spam. Aprende a procesar os teus datos de comentarios.