Главная страница
Навигация по странице:

  • The AI framework provides basic tools for AI algorithm implementation

  • Фреймворк ИИ предоставляет базовые инструменты для реализации алгоритма ИИ

  • AI enabling networking design adaptive to complex network conditions

  • ИИ, позволяющий адаптировать сетевой дизайн к сложным условиям сети

  • AI enabling more powerful and intelligent nanophotonics

  • ИИ обеспечивает более мощную и интеллектуальную нанофотонику

  • AI in other fields of information science

  • ИИ в других областях информатики

  • Перевод искусственный интеллект. Can machines think


    Скачать 250.78 Kb.
    НазваниеCan machines think
    АнкорПеревод искусственный интеллект
    Дата18.12.2022
    Размер250.78 Kb.
    Формат файлаdocx
    Имя файлаAI A powerful paradigm for scientific research.docx
    ТипДокументы
    #851343
    страница2 из 10
    1   2   3   4   5   6   7   8   9   10
    1   2   3   4   5   6   7   8   9   10

    AI IN INFORMATION SCIENCE

    AI aims to provide the abilities of perception, cognition, and decision-making for machines.

    At present, new research and applications in information science are emerging at an unprecedented rate, which is inseparable from the support by the AI infrastructure.

    As shown in Figure 2, the AI infrastructure layer includes data, storage and computing power, ML algorithms, and the AI framework.
    The perception layer enables machines have the basic ability of vision, hearing, etc.

    For instance, CV enables machines to “see” and identify objects, while speech recognition and synthesis helps machines to “hear” and recognize speech elements.

    The cognitive layer provides higher ability levels of induction, reasoning, and acquiring knowledge with the help of NLP, knowledge graphs, and continual learning.

    In the decision-making layer, AI is capable of making optimal decisions, such as automatic planning, expert systems, and decision-supporting systems.
    Numerous applications of AI have had a profound impact on fundamental sciences, industrial manufacturing, human life, social governance, and cyberspace.

    The following subsections provide an overview of the AI framework, automatic machine learning (AutoML) technology, and several state-of-the-art AI/ML applications in the information field.

    ИИ В ИНФОРМАТИКЕ

    ИИ стремится обеспечить способности восприятия, познания и принятия решений для машин.

    В настоящее время новые исследования и приложения в области информатики появляются с беспрецедентной скоростью, что неотделимо от поддержки инфраструктурой ИИ.

    Как показано на рисунке 2, уровень инфраструктуры ИИ включает в себя данные, хранилище и вычислительную мощность, алгоритмы машинного обучения и инфраструктуру ИИ.

    Слой восприятия позволяет машинам иметь базовую способность зрения, слуха и т. д.

    Например, CV позволяет машинам «видеть» и идентифицировать объекты, в то время как распознавание и синтез речи помогает машинам «слышать» и распознавать элементы речи.

    Когнитивный слой обеспечивает более высокие уровни способностей к индукции, рассуждению и приобретению знаний с помощью NLP, графов знаний, и непрерывного обучения.

    На уровне принятия решений ИИ способен принимать оптимальные решения, такие как автоматическое планирование, экспертные системы и системы поддержки принятия решений.

    Многочисленные приложения ИИ оказали глубокое влияние на фундаментальные науки, промышленное производство, человеческую жизнь, социальное управление и киберпространство.

    В следующих подразделах представлен обзор инфраструктуры ИИ, технологии автоматического машинного обучения (AutoML) и нескольких современных приложений AI / ML в информационной области.

    The AI framework provides basic tools for AI algorithm implementation

    In the past 10 years, applications based on AI algorithms have played a significant role in various fields and subjects, on the basis of which the prosperity of the DL framework and platform has been founded.
    AI frameworks and platforms reduce the requirement of accessing AI technology by integrating the overall process of algorithm development, which enables researchers from different areas to use it across other fields, allowing them to focus on designing the structure of neural networks, thus providing better solutions to problems in their fields.

    At the beginning of the 21st century, only a few tools, such as MATLAB, OpenNN, and Torch, were capable of describing and developing neural networks. However, these tools were not originally designed for AI models, and thus faced problems, such as complicated user API and lacking GPU support.


    During this period, using these frameworks de- manded professional computer science knowledge and tedious work on model construction.
    As a solution, early frameworks of DL, such as Caffe, Chainer, and Theano, emerged, allowing users to conveniently construct complex deep neural networks (DNNs), such as convolutional neural net- works (CNNs), recurrent neural networks (RNNs), and LSTM conveniently, and this significantly reduced the cost of applying AI models.

    Tech giants then joined the march in researching AI frameworks.

    Google developed the famous open-source framework, TensorFlow, while Facebook’s AI research team released another popular platform, PyTorch, which is based on Torch; Microsoft Research published CNTK, and Amazon announced MXNet.

    Among them, TensorFlow, also the most representative framework, referred to Theano’s declarative programming style, offering a larger space for graph-based optimization, while PyTorch inherited the imperative programming style of Torch, which is intuitive, user friendly, more flexible, and easier to be traced.
    As modern AI frameworks and platforms are being widely applied, practitioners can now assemble models swiftly and conveniently by adopting various building block sets and languages specifically suitable for given fields.
    Polished over time, these platforms gradually developed a clearly defined user API, the ability for multi-GPU training and distributed training, as well as a variety of model zoos and tool kits for specific tasks.

    Looking forward, there are a few trends that may become the mainstream of next-generation framework development.

    Capability of super-scale model training.

    With the emergence of models derived from Transformer, such as BERT and GPT-3, the ability of training large models has become an ideal feature of the DL framework.

    It requires AI frameworks to train effectively under the scale of hundreds or even thousands of devices.

    Unified API standard. The APIs of many frameworks are generally similar but slightly different at certain points.

    This leads to some difficulties and unnecessary learning efforts, when the user attempts to shift from one framework to another.
    The API of some frameworks, such as JAX, has already become compatible with Numpy standard, which is familiar to most practitioners.

    Therefore, a unified API standard for AI frameworks may gradually come into being in the future.

    Universal operator optimization. At present, kernels of DL operator are implemented either manually or based on third-party libraries.

    Most third-party libraries are developed to suit certain hardware platforms, causing large unnecessary spending when models are trained or deployed on different hardware platforms.
    The development speed of new DL algorithms is usually much faster than the update rate of libraries, which often makes new algorithms to be beyond the range of libraries’ support.

    To improve the implementation speed of AI algorithms, much research focuses on how to use hardware for acceleration.
    The DianNao family is one of the earliest research innovations on AI hardware accelerators.
    It includes DianNao, DaDianNao, ShiDianNao, and PuDianNao, which can be used to accelerate the inference speed of neural networks and other ML algorithms.

    Of these, the best performance of a 64-chip DaDianNao system can achieve a speed up of 450.653 over a GPU, and reduce the energy by 150.313.
    Prof. Chen and his team in the Institute of Computing Technology also designed an Instruction Set Architecture for a broad range of neural network accelera- tors, called Cambricon, which developed into a serial DL accelerator.
    After Cambricon, many AI-related companies, such as Apple, Google, HUAWEI, etc., developed their own DL accelerators, and AI accelerators became an important research field of AI.


    Фреймворк ИИ предоставляет базовые инструменты для реализации алгоритма ИИ

    За последние 10 лет приложения, основанные на алгоритмах ИИ, сыграли значительную роль в различных областях и предметах, на основе которых было основано процветание фреймворка и платформы DL.

    Фреймворки и платформы ИИ снижают потребность в доступе к технологии ИИ за счет интеграции общего процесса разработки алгоритмов, что позволяет исследователям из разных областей использовать его в других областях, позволяя им сосредоточиться на проектировании структуры нейронных сетей, тем самым обеспечивая лучшие решения проблем в своих областях.

    В начале 21-го века только несколько инструментов, таких как MATLAB, OpenNN и Torch, были способны описывать и развивать нейронные сети. Тем не менее, эти инструменты изначально не были подписаны для моделей ИИ и, таким образом, столкнулись с проблемами, такими как сложный пользовательский API и отсутствие поддержки GPU.

    В этот период использование этих рамок отбросило профессиональные знания в области информатики и утомительную работу по построению моделей.

    В качестве решения появились ранние фреймворки DL, такие как Caffe, Chainer и Theano, позволяющие пользователям удобно создавать сложные глубокие нейронные сети (DNN), такие как сверточные нейронные сети (CNN), рекуррентные нейронные сети (RNN) и LSTM удобно, и это значительно снизило стоимость применения моделей ИИ.
    Затем технологические гиганты присоединились к маршу в исследовании фреймворков ИИ.9 Google разработал знаменитый фреймворк с открытым исходным кодом TensorFlow, в то время как исследовательская группа Facebook выпустила еще одну популярную платформу, PyTorch, которая основана на Torch; Microsoft Research опубликовала CNTK, а Amazon анонсировала MXNet.

    Среди них TensorFlow, также наиболее репрезентативный фреймворк, ссылался на декларативный стиль программирования Theano, предлагая большее пространство для оптимизации на основе графов, в то время как PyTorch унаследовал императивный стиль программирования Torch, который интуитивно понятен, удобен для пользователя, более гибок и его легче отслеживать.

    Поскольку современные фреймворки и платформы ИИ широко применяются, практики теперь могут быстро и удобно собирать модели, принимая различные наборы строительных блоков и языки, специально подходящие для данных областей.

    Отполированные с течением времени эти платформы постепенно разработали четко определенный пользовательский API, возможность обучения с несколькими графическими процессорами и распределенного обучения, а также различные модельные зоопарки и наборы инструментов для конкретных задач.

    В поисках есть несколько тенденций, которые могут стать мейнстримом разработки фреймворков следующего поколения.

    Возможность обучения сверхмасштабной модели.

    С появлением моделей, производных от Transformer, таких как BERT и GPT-3, возможность обучения больших моделей стала идеальной особенностью фреймворка DL.

    Это требует, чтобы структуры ИИ эффективно обучались в масштабе сотен или даже тысяч устройств.

    Единый стандарт API. API многих фреймворков, как правило, похожи, но немного отличаются в определенных точках.

    Это приводит к некоторым трудностям и ненужным усилиям по обучению, когда пользователь пытается перейти от одного фреймворка к другому.

    API некоторых фреймворков, таких как JAX, уже стал совместим со стандартом Numpy, который знаком большинству практиков.

    Поэтому в будущем может постепенно появиться единый стандарт API для фреймворков ИИ.

    Универсальная оптимизация оператора. В настоящее время ядра оператора DL реализуются либо вручную, либо на основе сторонних библиотек. Большинство сторонних библиотек разрабатываются в соответствии с определенными аппаратными платформами, что приводит к большим ненужным расходам при обучении или развертывании моделей на разных аппаратных платформах. Скорость разработки новых алгоритмов DL обычно намного выше, чем скорость обновления библиотек, что часто делает новые алгоритмы выходящими за рамки поддержки библиотек

    Чтобы улучшить скорость реализации алгоритмов ИИ, многие исследования сосредоточены на том, как использовать аппаратное обеспечение для ускорения.

    Семейство DianNao является одной из самых ранних исследовательских инноваций в области аппаратных ускорителей ИИ.

    Оно включает в себя DianNao, DaDianNao, ShiDianNao и PuDianNao, которые могут быть использованы для ускорения скорости вывода нейронных сетей и других алгоритмов ML.

    Из них лучшая производительность 64-чиповой системы DaDianNao позволяет достичь скорости 450,653 над графическим процессором и снизить энергию на 150,313.

    Профессор Чен и его команда из Института вычислительных технологий также разработали архитектуру набора инструкций для широкого спектра ускорителей нейронных сетей, называемую Cambricon, которая превратилась в последовательный ускоритель DL.

    После Cambricon многие компании, связанные с ИИ, такие как Apple, Google, HUAWEI и т. Д., Разработали свои собственные ускорители DL, а ускорители ИИ стали важной областью исследований ИИ.


    AI for AI—AutoML

    AutoML aims to study how to use evolutionary computing, reinforcement learning (RL), and other AI algorithms, to automatically generate specified AI algorithms.
    Research on the automatic generation of neural networks has existed before the emergence of DL, e.g., neural evolution.

    The main purpose of neural evolution is to allow neural networks to evolve according to the principle of survival of the fittest in the biological world.

    Through selection, cross-over, mutation, and other evolutionary operators, the individual quality in a population is continuously improved and, finally, the individual with the greatest fitness represents the best neural network.

    The biological inspiration in this field lies in the evolutionary process of human brain neurons.
    The human brain has such developed learning and memory functions that it cannot do without the complex neural network system in the brain.
    The whole neural network system of the human brain benefits from a long evolutionary process rather than gradient descent and back propagation.
    In the era of DL, the application of AI algorithms to automatically generate DNN has attracted more attention and, gradually, developed into an important direction of AutoML research: neural architecture search. The implementation methods of neural architecture search are usually divided into the RL-based method and the evolutionary algorithm-based method.

    In the RL-based method, an RNN is used as a controller to generate a neural network structure layer by layer, and then the network is trained, and the accuracy of the verification set is used as the reward signal of the RNN to calculate the strategy gradient.
    During the iteration, the controller will give the neural network, with higher accuracy, a higher probability value, so as to ensure that the strategy function can output the optimal network structure.
    The method of neural architecture search through evolution is similar to the neural evolution method, which is based on a population and iterates continuously according to the principle of survival of the fittest, so as to obtain a high-quality neural network.
    Through the application of neural architecture search technology, the design of neural networks is more efficient and automated, and the accuracy of the network gradually outperforms that of the networks designed by AI experts.
    For example, Google’s SOTA network EfficientNet was realized through the baseline network based on neural architecture search.

    ИИ для ИИ — AutoML

    AutoML направлен на изучение того, как использовать эволюционные вычисления, обучение с подкреплением (RL) и другие алгоритмы ИИ для автоматической генерации определенных алгоритмов ИИ.

    Исследования автоматической генерации нейронных сетей существовали до появления DL, например, нейронной эволюции.

    Основная цель нейронной эволюции состоит в том, чтобы позволить нейронным сетям развиваться в соответствии с принципом выживания наиболее приспособленных в биологическом мире. Сквозной отбор, перекрещений, мутацией и другими эволюционными операторами качество индивида в популяции постоянно улучшается, и, наконец, индивид с наибольшей приспособленностью представляет собой лучшую нейронную сеть.

    Биологическое вдохновение в этой области заключается в эволюционном процессе нейронов человеческого мозга.

    Человеческий мозг обладает настолько развитыми функциями обучения и памяти, что не может обойтись без сложной нейросетевой системы в мозге.

    Вся нейросетевая система человеческого мозга выигрывает от длительного эволюционного процесса, а не от градиентного спуска и обратного распространения.

    В эпоху DL применение алгоритмов ИИ для автоматической генерации DNN привлекло все больше внимания и, постепенно, превратилось в важное направление исследований AutoML: поиск нейронной архитектуры. Методы реализации поиска нейронной архитектуры обычно делятся на метод на основе RL и метод на основе эволюционного алгоритма.

    В методе, основанном на RL, RNN используется в качестве контроллера для генерации структуры нейронной сети слой за слоем, а затем сеть обучается, а точность проверочного набора используется в качестве сигнала вознаграждения RNN для расчета градиента стратегии.

    Во время итерации контроллер придаст нейронной сети с более высокой точностью более высокое значение вероятности, чтобы гарантировать, что функция стратегии может выводить оптимальную сетевую структуру.

    Метод поиска нейронной архитектуры через эволюцию аналогичен методу нейронной эволюции, который основан на популяции и непрерывно итерируется в соответствии с принципом выживания наиболее приспособленных, для получения высококачественной нейронной сети.

    Благодаря применению технологии поиска нейронной архитектуры проектирование нейронных сетей становится более эффективным и автоматизированным, а точность сети постепенно превосходит точность сетей, разработанных экспертами по ИИ.

    Например, SOTA сеть Google EfficientNet была реализована через базовую сеть, основанную на поиске нейронной архитектуры.

    AI enabling networking design adaptive to complex network conditions

    The application of DL in the networking field has received strong interest.

    Network design often relies on initial network conditions and/or theoretical assumptions to characterize real network environments.
    However, traditional network modeling and design, regulated by mathematical models, are unlikely to deal with complex scenarios with many imperfect and high dynamic network environments.
    Integrating DL into network research allows for a better representation of complex network environments.

    Furthermore, DL could be combined with the Markov decision process and evolve into the deep reinforcement learning (DRL) model, which finds an optimal policy based on the reward function and the states of the system.
    Taken together, these techniques could be used to make better decisions to guide proper network design, thereby improving the network quality of service and quality of experience.
    With regard to the aspect of different layers of the network protocol stack, DL/DRL can be adopted for network feature extraction, decision-making, etc.

    In the physical layer, DL can be used for interference alignment.

    It can also be used to classify the modulation modes, design efficient network coding and error correction codes, etc.
    In the data link layer, DL can be used for resource (such as channels) allocation, medium access control, traffic pre- diction, link quality evaluation, and so on.

    In the network (routing) layer, routing establishment and routing optimization can help to obtain an optimal routing path.

    In higher layers (such as the application layer), enhanced data compression and task allocation is used.
    Besides the above protocol stack, one critical area of using DL is network security.
    DL can be used to classify the packets into benign/malicious types, and how it can be integrated with other ML schemes, such as unsupervised clustering, to achieve a better anomaly detection effect.

    ИИ, позволяющий адаптировать сетевой дизайн к сложным условиям сети

    Применение DL в сетевой сфере вызвало большой интерес.

    Проектирование сети часто опирается на исходные условия сети и/или теоретические предположения для характеристики реальных сетевых сред.

    Однако традиционное сетевое моделирование и проектирование, регулируемые математическими моделями, вряд ли будут иметь дело со сложными сценариями со многими несовершенными и высокодинамичными сетевыми средами. Интеграция DL в сетевые исследования позволяет лучше представлять сложные сетевые среды.

    Кроме того, DL может быть объединен с процессом принятия решений Маркова и превратиться в модель глубокого обучения с подкреплением (DRL), которая находит оптимальную политику, основанную на функции вознаграждения и состояниях системы.

    Взятые вместе, эти методы могут быть использованы для принятия более эффективных решений для руководства надлежащим проектированием сети, тем самым улучшая качество обслуживания сети и качество использования.

    Что касается аспекта различных уровней стека сетевых протоколов, DL/DRL может быть принят для извлечения сетевых функций, принятия решений и т. д.

    На физическом уровне DL можно использовать для выравнивания помех.

    Он также может быть использован для классификации режимов модуляции, проектирования эффективного сетевого кодирования и кодов коррекции ошибок и т. д.

    На канальном уровне данных DL может использоваться для распределения ресурсов (таких как каналы), управления доступом к среде, предварительной дикции трафика, оценки качества канала и так далее.

    На сетевом (маршрутном) уровне установление маршрутизации и оптимизация маршрутизации могут помочь получить оптимальный путь маршрутизации.

    На более высоких уровнях (таких как прикладной уровень) используется улучшенное сжатие данных и распределение задач.

    Помимо вышеупомянутого стека протоколов, одной из критических областей использования DL является сетевая безопасность.

    DL можно использовать для классификации пакетов на доброкачественные/ вредоносные типы и как его можно интегрировать с другими схемами машинного обучения, такими как неконтролируемая кластеризация, для достижения лучшего эффекта обнаружения аномалий.

    AI enabling more powerful and intelligent nanophotonics

    Nanophotonic components have recently revolutionized the field of optics via metamaterials/metasurfaces by enabling the arbitrary manipulation of light-matter interactions with subwavelength meta-atoms or meta-molecules.
    The conventional design of such components involves generally forward modeling, i.e., solving Maxwell’s equations based on empirical and intuitive nanostructures to find corresponding optical properties, as well as the inverse design of nanophotonic devices given an on-demand optical response.

    The trans-dimensional feature of macro-optical components consisting of complex nano-antennas makes the design process very time consuming, computationally expensive, and even numerically prohibitive, such as device size and complexity increase.

    DL is an efficient and automatic platform, enabling novel efficient approaches to designing nanophotonic devices with high-performance and versatile functions.
    Here, we present briefly the recent progress of DL-based nanophotonics and its wide-ranging applications.

    DL was exploited for forward modeling at first using a DNN.

    The transmission or reflection coefficients can be well predicted after training on huge datasets.
    To improve the prediction accuracy of DNN in case of small datasets, transfer learning was introduced to migrate knowledge between different physical scenarios, which greatly reduced the relative error. Furthermore, a CNN and an RNN were developed for the prediction of optical properties from arbitrary structures using images.

    The CNN-RNN combination successfully predicted the absorption spectra from the given input structural images.

    In inverse design of nanophotonic devices, there are three different paradigms of DL methods, i.e., supervised, unsupervised, and RL.
    Supervised learning has been utilized to design structural parameters for the predefined geometries, such as tandem DNN and bidirectional DNNs.
    Unsupervised learning methods learn by themselves without a specific target, and thus are more accessible to discovering new and arbitrary patterns in completely new data than supervised learning.

    A generative adversarial network (GAN)-based approach, combining conditional GANs and Wasserstein GANs, was proposed to design freeform all-dielectric multifunctional metasurfaces.
    RL, especially double-deep Q-learning, powers up the inverse design of high-performance nanophotonic devices.

    DL has endowed nanophotonic devices with better performance and more emerging applications. For instance, an intelligent microwave cloak driven by DL exhibits millisecond and self-adaptive response to an ever-changing incident wave and background.

    Another example is that a DL-augmented infrared nano-plasmonic metasurface is developed for monitoring dynamics between four major classes of bio-molecules, which could impact the fields of biology, bioanalytics, and pharmacology from fundamental research, to disease diagnostics, to drug development.

    The potential of DL in the wide arena of nano-photonics has been unfolding.

    Even end-users without optics and photonics background could exploit the DL as a black box toolkit to design powerful optical devices.
    Nevertheless, how to interpret/mediate the intermediate DL process and determine the most dominant factors in the search for optimal solutions, are worthy of being investigated in depth.
    We optimistically envisage that the advancements in DL algorithms and computation/optimization infrastructures would enable us to realize more efficient and reliable training approaches, more complex nanostructures with unprecedented shapes and sizes, and more intelligent and reconfigurable optic/optoelectronic systems.

    ИИ обеспечивает более мощную и интеллектуальную нанофотонику

    Нанофотонные компоненты недавно произвели революцию в области оптики с помощью метаматериалов /метаповерхностей, позволив произвольно манипулировать взаимодействиями световой материи с субволновыми метаатомами или метамолекулами.

    Традиционная конструкция таких компонентов включает в себя, как правило, прямое моделирование, то есть решение уравнений Максвелла на основе эмпирических и интуитивных наноструктур для поиска соответствующих оптических свойств, а также обратный дизайн нанофотонных устройств с учетом потребности оптический отклик.

    Трансмерная особенность макрооптических компонентов, состоящих из сложных наноантенн, делает процесс проектирования очень трудоемким, вычислительно дорогостоящим и даже численно непомерно высоким, таким как увеличение размера и сложности устройства.

    DL - это эффективная и автоматическая платформа, позволяющая применять новые эффективные подходы к проектированию нанофотонных компонентов с высокопроизводительными и универсальными функциями.

    Здесь мы кратко представляем недавний прогресс нанофотоники на основе DL и ее широкомасштабных применений.

    Сначала DL использовался для прямого моделирования с использованием DNN.

    Коэффициенты передачи или отражения могут быть хорошо предсказаны после обучения на огромных наборах данных.

    Чтобы повысить точность прогнозирования DNN в случае небольших наборов данных, было введено трансферное обучение для переноса знаний в различные физические сценарии, что значительно уменьшило относительную погрешность. Кроме того, были разработаны CNN и RNN для прогнозирования оптических свойств от произвольных структур с использованием изображений.

    Комбинация CNN-RNN успешно предсказала спектры поглощения из заданных входных структурных изображений.

    В обратном проектировании нанофотонных устройств существуют три различные парадигмы методов DL, т.е. контролируемые, неконтролируемые и RL.

    Контролируемое обучение было использовано для разработки структурных параметров для заранее определенных геометрий, таких как тандем DNN и двунаправленные DNN.

    Неконтролируемые методы обучения учатся сами по себе без конкретной цели и, таким образом, более доступны для обнаружения новых и произвольных шаблонов в совершенно новых данных, чем контролируемое обучение.

    Для проектирования полнодиэлектрических многофункциональных метаповерхностей был предложен подход, основанный на генеративной состязательной сети (GAN), объединяющий условные GAN и WASSerstein.

    RL, особенно двойное глубокое Q-обучение, обеспечивает разработку высокопроизводительных нанофотонных устройств.

    DL наделила нанофотонные устройства более высокой производительностью и более новыми приложениями. Например, интеллектуальный микроволновый плащ, управляемый DL, демонстрирует миллисекундный и самоадаптивный отклик на постоянно меняющуюся падающую волну и фон.

    Другим примером является инфракрасный наноплазмонная метаповерхность разработана для мониторинга динамики между четырьмя основными классами биомолекул, которые могут повлиять на области биологии, биоаналитики и фармакологии от фундаментальных исследований до диагностики заболеваний и разработки лекарств.

    Потенциал DL на широкой арене нанофотоники раскрывается.

    Даже конечные пользователи без оптики и фотоники могут использовать DL в качестве инструментария черного ящика для разработки мощных оптических устройств.

    Тем не менее, как интерпретировать/опосредовать промежуточный процесс DL и определить наиболее доминирующие факторы в поиске оптимальных решений, достойны глубокого изучения.

    Мы оптимистично предвидеть, что достижения в алгоритмах DL и инфраструктурах вычислений / оптимизации позволят нам реализовать более эффективные и надежные подходы к обучению, более сложные наноструктуры с беспрецедентными формами и размерами, а также более интеллектуальные и реконфигурируемые оптические / оптоэлектронные системы.

    AI in other fields of information science

    We believe that AI has great potential in the following directions:

    • AI-based risk control and management in utilities can prevent costly or hazardous equipment failures by using sensors that detect and send information regarding the machine’s health to the manufac- turer, predicting possible issues that could occur so as to ensure timely maintenance or automated shutdown.



    • AI could be used to produce simulations of real-world objects, called digital twins. When applied to the field of engineering, digital twins allow engineers and technicians to analyze the performance of an equipment virtually, thus avoiding safety and budget issues associ- ated with traditional testing methods.




    • Combined with AI, intelligent robots are playing an important role in industry and human life. Different from traditional robots working according to the procedures specified by humans, intelligent robots have the ability of perception, recognition, and even automatic planning and decision-making, based on changes in environmental conditions.



    • AI of things (AIoT) or AI-empowered IoT applications have become a promising development trend. AI can empower the connected IoT devices, embedded in various physical infrastructures, to perceive, recognize, learn, and act. For instance, smart cities constantly collect data regarding quality-of-life factors, such as the status of power supply, public transportation, air pollution, and water use, to manage and optimize systems in cities. Due to these data, especially personal data being collected from informed or uninformed participants, data security, and privacy require protection.

    ИИ в других областях информатики

    Мы считаем, что ИИ имеет большой потенциал в следующих направлениях:

    • Контроль и управление рисками на основе ИИ в коммунальных службах могут предотвратить дорогостоящие или опасные отказы оборудования с помощью датчиков, которые обнаруживают и отправляют информацию о состоянии машины на завод-турер, прогнозируя возможные проблемы, которые могут возникнуть, чтобы обеспечить своевременное техническое обслуживание или автоматическое отключение.

    • ИИ может быть использован для моделирования объектов реального мира, называемых цифровыми двойниками. Применительно к области машиностроения цифровые двойники позволяют инженерам и техникам виртуально анализировать производительность оборудования, тем самым избегая проблем безопасности и бюджета, связанных с традиционными методами тестирования.

    • В сочетании с ИИ интеллектуальные роботы играют важную роль в промышленности и жизни человека. В отличие от традиционных роботов, работающих в соответствии с процедурами, определенными людьми, интеллектуальные роботы обладают способностью к восприятию, распознаванию и даже автоматическому планированию и принятию решений на основе изменений условий окружающей среды.

    ИИ вещей (AIoT) или ioT-приложения с поддержкой ИИ стали многообещающей тенденцией развития. ИИ может дать возможность подключенным устройствам IoT, встроенным в различные физические инфраструктуры, воспринимать, распознавать, учиться и действовать. Например, умные города постоянно собирают данные о факторах качества жизни, таких как состояние электроснабжения, общественного транспорта, загрязнение воздуха и водопользование, для управления и оптимизации систем в городах. Из-за этих данных, особенно персональных данных, собираемых от информированных или неосведомленных участников, безопасность данных и конфиденциальность требуют защиты.


    написать администратору сайта