Насколько разумно «право на объяснение»?

8

Там был недавний всплеск интереса к электронному X plainable A rtificial I ntelligence (ХАИ). Вот миссия XAI, как указано на странице DARPA :

Программа Explainable AI (XAI) направлена ​​на создание набора методов машинного обучения, которые:

  • Создание более объяснимых моделей при сохранении высокого уровня эффективности обучения (точность прогнозирования); а также
  • Предоставьте пользователям возможность понимать, надлежащим образом доверять и эффективно управлять новым поколением искусственно интеллектуальных партнеров.

Статья New York Times Может ли AI научиться объяснять себя? хорошо объясняет необходимость XAI с точки зрения человеческих интересов, а также дает представление о методах, разрабатываемых для них. Похоже, что движущая сила движения XAI сосредоточена вокруг (восходящей и будущей?) Концепции права на объяснение , то есть требования, чтобы приложения ИИ, которые существенно влияют на жизнь людей посредством своих решений, могли объяснить заинтересованным сторонам факторы / причины, приводящие к на указанное решение.

Насколько разумно право на объяснение, учитывая текущие стандарты, в соответствии с которыми мы привлекаем друг друга к ответственности?

LastIronStar
источник
В статье « Искусственный интеллект (ИИ)» компьютер говорит «нет»: почему создание ИИ справедливым, подотчетным и прозрачным является решающим условием того, что Европа опережает другие части мира в разработке правил по защите людей от плохо сделанного или используемого ИИ . Тем не менее, эти правила немного слабые: например, они не применяются к случаям, когда вовлечены люди или их решения (кроме решений AI).
nbro

Ответы:

3

Насколько разумно право на объяснение, учитывая текущие стандарты, в соответствии с которыми мы привлекаем друг друга к ответственности?

Короче говоря, это вполне разумно.

В частности, обоснование ответственности ИИ за объяснение решения кажется разумным, поскольку

  • Люди (в данном случае DARPA) решили создавать, поднимать и развивать ИИ на деньги налогоплательщиков. Также и в нашем обществе, когда люди собираются вместе для какой-то цели (какой-то формальной договоренности, такой как правительство или иное), ответственность и ответственность принимаются и распределяются. Таким образом, ожидание того, что ИИ (который будет принимать решения от нашего имени) объяснит свои решения, кажется только естественным продолжением того, как люди работают в настоящее время .

  • У людей ( как правило, по крайней мере) нет сверхдержавы или ресурсов, чтобы контролировать и манипулировать остальным населением. Но когда они это делают (как наши политические лидеры ), мы хотим, чтобы они были подотчетны.

  • В редких случаях могущественные люди становятся могущественными благодаря вещам, которые доступны каждому , в то время как сверхдержава ИИ не будет. Таким образом, наша цивилизация чувствовала бы себя в большей безопасности и, следовательно, в меньшей безопасности с ИИ, который не закрывает дверь, когда задают вопросы.

Другие преимущества ИИ, которые предлагают объяснение того, как принимается решение

  • Гораздо проще отлаживать и улучшать на ранней стадии.

  • Может быть изменен в дальнейшем (и по пути), чтобы усилить определенные аспекты, такие как социальное обеспечение, прибыльность и т. Д.

gurvinder372
источник
0

В статье Раб алгоритму? Почему «право на объяснение», вероятно, не является средством правовой защиты, которое вы ищете , авторы утверждают, что «право на объяснение» вряд ли обеспечит полное исправление алгоритмического вреда по крайней мере по двум причинам

  1. Неясно, когда какое-либо право, связанное с объяснением, может быть вызвано

  2. Требуемые законом объяснения «значимая информация о логике обработки» могут не предоставляться современными (объяснимыми) методами ИИ

Затем авторы приходят к выводу, что «право на объяснение» отвлекает , но что другие законы Общего регламента ЕС о защите данных, такие как

  1. право быть забытым
  2. право на переносимость данных
  3. конфиденциальность по замыслу

может компенсировать недостатки "права на объяснение".

В заключение, «право на объяснение» является попыткой защитить граждан от возможных нежелательных последствий использования методов ИИ. Тем не менее, оно не является безупречным, и, возможно, необходимо обнародовать более четкие права.

нбро
источник