Главная страница

делать. The practical implementation of artificial intelligence technologies in medicine


Скачать 64.99 Kb.
НазваниеThe practical implementation of artificial intelligence technologies in medicine
Анкорделать
Дата02.10.2022
Размер64.99 Kb.
Формат файлаdocx
Имя файлаArtificial intelligence in sustainable energy industry.docx
ТипДокументы
#709299
страница3 из 10
1   2   3   4   5   6   7   8   9   10
1   2   3   4   5   6   7   8   9   10

Transparency


Transparency of data and AI algorithms is also a major concern. Transparency is relevant at multiple levels. First, in the case of supervised learning (Box 1), the accuracy of predictions relies heavily on the accuracy of the underlying annotations inputted into the algorithm. Poorly labeled data will yield poor results26, so transparency of labeling such that others can critically evaluate the training process for a supervised learning algorithm is paramount to ensuring accuracy.

Прозрачность


Прозрачность данных и алгоритмов ИИ также вызывает серьезную озабоченность. Прозрачность актуальна на нескольких уровнях. Во-первых, в случае обучения с учителем (вставка 1) точность прогнозов в значительной степени зависит от точности базовых аннотаций, введенных в алгоритм. Плохо маркированные данные приведут к плохим результатам, поэтому прозрачность маркировки, чтобы другие могли критически оценить процесс обучения для алгоритма обучения с учителем, имеет первостепенное значение для обеспечения точности.


Besides issues in annotation or labeling, transparency also relates to model interpretability—in other words, humans should be able to understand or interpret how a given technology reached a certain decision or prediction27 (https://christophm.github.io/interpretable-ml-book/). This kind of ‘transparent’ AI contrasts the ‘opaque’ or ‘black box’ approach28. It is thought that if the system’s reasoning can be explained, then humans can verify whether the reasoning is sound. If the system’s reasoning cannot be explained, such evaluation would not be practically feasible. However, there are tradeoffs—in certain instances, enforcing transparency and interpretability can potentially result in decreased accuracy or predictive performance of a model. And certain scenarios may not require interpretability, such as if the model has no significant impact or if the problem is well-studied (https://christophm.github.io/interpretable-ml-book/). It is obvious that the delivery of healthcare does not fall into these categories. AI technologies will need transparency to justify a particular diagnosis, treatment recommendation, or outcome prediction22. Furthermore, only with transparency can physicians and researchers perform analyses that could potentially uncover new clinical insights.

Помимо проблем с аннотацией или маркировкой, прозрачность также связана с интерпретируемостью модели — другими словами, люди должны быть в состоянии понять или интерпретировать, как данная технология пришла к определенному решению или прогнозу (https://christophm.github.io/interpretable-ml). - книга).­ Такой «прозрачный» ИИ контрастирует с «непрозрачным» или «черным ящиком». Считается, что если рассуждения системы могут быть объяснены, то люди могут проверить, правильны ли рассуждения. Если рассуждения системы не могут быть объяснены, такая оценка практически невозможна. Однако есть компромиссы: в некоторых случаях обеспечение прозрачности и интерпретируемости может потенциально привести к снижению точности или прогностической эффективности модели. И некоторые сценарии могут не требовать интерпретируемости, например, если модель не оказывает существенного влияния или если проблема хорошо изучена (https://christophm.github.io/interpretable-ml-book/). Очевидно, что оказание медицинской помощи не подпадает под эти категории. Технологии искусственного интеллекта потребуют прозрачности, чтобы обосновать конкретный диагноз, рекомендации по лечению или прогнозирование исхода. Кроме того, только при условии прозрачности врачи и исследователи могут проводить анализы, которые потенциально могут совершить новые клинические открытия.

Another reason why transparency is important is that AI technologies have the potential for algorithmic bias, thereby reinforcing discriminatory practices based on race, sex, or other features21,22. Transparency of training data and of model interpretability would allow examination for any potential bias. Ideally, machine learning might even help resolve healthcare disparities if designed to compensate for known biases21.

Еще одна причина важности прозрачности заключается в том, что технологии искусственного интеллекта потенциально могут привести к алгоритмической предвзятости, тем самым усиливая практику дискриминации по признаку расы, пола или других признаков. Прозрачность обучающих данных и интерпретируемость модели позволили бы изучить любую потенциальную предвзятость. В идеале машинное обучение могло бы даже помочь устранить неравенство в здравоохранении, если оно предназначено для компенсации известных предубеждений.

Transparency will be difficult to achieve if companies purposefully make their algorithms opaque for proprietary or financial reasons. Physicians and other stakeholders in the healthcare system must demand transparency to facilitate patient safety.

Прозрачности будет трудно достичь, если компании намеренно делают свои алгоритмы непрозрачными по имущественным или финансовым причинам. Врачи и другие заинтересованные стороны в системе здравоохранения должны требовать прозрачности для обеспечения безопасности пациентов.


написать администратору сайта