Определение явных отеков алгоритм


Предисловие

Цель: диагностическая.

Показания: исследование системы органов мочевыделения, сердечно-сосудистой, эндокринной системы.

Противопоказания: нет.

Подготовить: кожный антисептик для обработки рук

Подготовка пациента:

1. Пациента раздеть.

2. Предложить лечь на спину или усадить.

Техника выполнения:

1.Выполнить гигиеническую обработку рук, руки согреть.

2.Отеки можно определять на стопах, лодыжках, голенях, крестце.

3.Сдавить большим пальцем мягкие ткани над костными образованиями в течение 3 - 5 секунд.

4.Проверить образование ямки на месте сдавливания. Появление ямки свидетельствует о наличии отека.

5.Определение отёков на лице проводят визуально, при этом уделяют внимание периорбитальной области.

Последующий уход: не требуется.

Возможные осложнения: нет.

Примечания: В норме у здорового человека отеков нет.

- установить доброжелательные отношения с пациентом

- объяснить пациенту, что исследование необходимо для более точной диагностики и контроля за эффективностью лечения

- сдавливание проводить осторожно, не причиняя пациенту боли

- следить за реакцией пациента

Ассистент радиолога: болезнь легких

Вот типичное крупное уплотнение.
Сначала изучите изображения, затем продолжайте чтение.

Результаты:

  • повышенная плотность с нечеткими границами в левом легком
  • силуэт сердца все еще виден, что означает, что плотность находится в нижней доле
  • воздушная бронхограмма

Долевое уплотнение результат болезни, которая начинается на периферии и распространяется от одной альвеолы ​​к другой через поры Кона.
На границах болезни одни альвеолы ​​будут вовлечены, а другие нет, поэтому границы будут нечеткими.
Когда болезнь достигает трещины, это приводит к резкому очерчиванию, так как консолидация не пересекает трещину.

По мере того, как альвеолы, окружающие бронхи, становятся более плотными, бронхи становятся более заметными, что приводит к воздушной бронхограмме (стрелка).

При консолидации не должно быть потери объема или она должна быть минимальной, что отличает уплотнение от ателектаза.
Расширение консолидированной доли встречается не так часто и наблюдается у Klebsiella pneumoniae, а иногда и у Streptococcus pneumoniae, туберкулеза и рака легких с обструктивной пневмонией.

.

ML Алгоритмы: Одно SD (σ). Очевидные вопросы, которые нужно задать, когда… | автор: Саги Шайер

Введение в алгоритмы машинного обучения

Изображение Джейсона Браунли

Очевидные вопросы, которые следует задать при столкновении с широким спектром алгоритмов машинного обучения: «какой алгоритм лучше всего подходит для конкретной задачи и какой из них мне следует использовать? ”

Ответы на эти вопросы зависят от нескольких факторов, включая: (1) размер, качество и характер данных; (2) доступное вычислительное время; (3) Актуальность задачи; и (4) Что вы хотите делать с данными.

В этом проекте я попытался максимально просто отобразить и кратко объяснить основные алгоритмы (хотя и не все), которые доступны для различных задач.

· Обычная регрессия наименьших квадратов (OLSR) - метод линейной регрессии для оценки неизвестных параметров путем создания модели, которая минимизирует сумму квадратов ошибок между наблюдаемыми данными и прогнозируемыми (наблюдаемые значения и оценочные значения ).

· Линейная регрессия - используется для оценки реальных значений (стоимость домов, количество звонков, общий объем продаж и т. Д.)) на основе непрерывной переменной.

· Логистическая регрессия - используется для оценки дискретных значений (двоичные значения, такие как 0/1, да / нет, истина / ложь) на основе заданного набора независимых переменных

· Пошаговая регрессия - добавляет функции в вашу модель. по одному, пока не будет найдена оптимальная оценка для вашего набора функций. Пошаговый выбор чередуется между прямым и обратным, вводя и удаляя переменные, которые соответствуют критериям ввода или удаления, до тех пор, пока не будет достигнут стабильный набор переменных.Хотя я не видел слишком много статей об этом и слышал несколько аргументов, что это не работает.

· Сплайны с многомерной адаптивной регрессией (MARS ) - гибкий метод регрессии, который ищет взаимодействия и нелинейные отношения, которые помогают максимально повысить точность прогнозирования. Эти алгоритмы по своей сути нелинейны (это означает, что вам не нужно адаптировать модель к нелинейным шаблонам в данных, вручную добавляя элементы модели (элементы в квадрате, эффекты взаимодействия)).

· Сглаживание локально оцененной диаграммы рассеяния (LOESS) - метод подгонки гладкой кривой между двумя переменными или подбора гладкой поверхности между результатом и до четырех переменных-предикторов. Идея состоит в том, что если ваши данные не распределены линейно, вы все равно можете применить идею регрессии. Вы можете применить регрессию, и она называется локально взвешенной регрессией. Вы можете применить LOESS, когда отношения между независимыми и зависимыми переменными нелинейны.Сегодня большинство алгоритмов (например, классическая нейронная сеть с прямой связью, опорные векторные машины, алгоритмы ближайшего соседа и т. Д.) Являются глобальными системами обучения, где они используются для минимизации глобальных функций потерь (например, квадратичной ошибки суммы). Напротив, локальные системы обучения разделят глобальную проблему обучения на несколько более мелких / простых задач обучения. Обычно это достигается путем разделения функции затрат на несколько независимых локальных функций затрат. Одним из недостатков глобальных методов является то, что иногда никакие значения параметров не могут обеспечить достаточно хорошее приближение.Но затем появляется LOESS - альтернатива приближению глобальной функции.

· K-Nearest Neighbor (KNN) - может использоваться как для задач классификации, так и для задач регрессии. KNN хранит все доступные случаи и классифицирует новые случаи большинством голосов своих K соседей. Прогнозы для новой точки данных выполняются путем поиска во всем обучающем наборе K наиболее похожих экземпляров (соседей) и суммирования выходной переменной для этих K экземпляров. Для задач регрессии это может быть средняя выходная переменная, для задач классификации это может быть значение класса режима (или наиболее распространенное).

· Квантование обучающего вектора (LVQ) - Обратной стороной метода K-ближайших соседей является то, что он привязан ко всему набору обучающих данных. LVQ - это алгоритм искусственной нейронной сети, который позволяет вам выбрать, сколько обучающих экземпляров нужно удерживать, и точно узнает, как эти экземпляры должны выглядеть. Если вы обнаружите, что KNN дает хорошие результаты для вашего набора данных, попробуйте использовать LVQ, чтобы уменьшить требования к памяти для хранения всего набора обучающих данных.

· Самоорганизующаяся карта (SOM) - неконтролируемая модель глубокого обучения, в основном используемая для обнаружения признаков или уменьшения размерности.Он выводит 2D-карту для любого количества индикаторов. SOM отличается от других искусственных нейронных сетей тем, что применяет конкурентное обучение в отличие от обучения с исправлением ошибок (например, обратное распространение с градиентным спуском), и в том смысле, что они используют функцию соседства для сохранения топологических свойств входного пространства.

· Локально-взвешенное обучение (LWL) - Идея этого алгоритма заключается в том, что вместо построения глобальной модели для всего функционального пространства для каждой интересующей точки мы строим локальную модель на основе соседних данных точки запроса.Для этого каждая точка данных становится весовым коэффициентом, который выражает влияние точки данных на прогноз. В основном точки данных, которые находятся в непосредственной близости от текущей точки запроса, получают более высокий вес, чем точки данных, которые находятся далеко.

· Ridge Regression ( L2 Regularization ) - ее цель - решить проблемы переобучения данных. Стандартная модель линейной или полиномиальной регрессии потерпит неудачу в случае высокой коллинеарности (существования почти линейных отношений между независимыми переменными) между характеристическими переменными.Ридж-регрессия добавляет к переменным небольшой квадратный коэффициент смещения. Такой возведенный в квадрат коэффициент смещения отталкивает коэффициенты переменной признака от этой жесткости, привнося небольшое смещение в модель, но значительно уменьшая дисперсию. У регрессии Риджа есть один главный недостаток: она включает в себя все n функций в окончательной модели.

· Оператор наименьшей абсолютной усадки и выбора (LASSO, L1 Regularization ) - в отличие от регрессии гребня, он штрафует только высокие коэффициенты.Эффект лассо заставляет некоторые оценки коэффициентов быть точно нулевыми, когда гиперпараметр θ достаточно велик. Следовательно, можно сказать, что Lasso выполняет выбор переменных, создавая модели, которые гораздо легче интерпретировать, чем модели, созданные с помощью Ridge Regression.

· Elastic Net - сочетает в себе некоторые характеристики лассо и риджа. Лассо удалит многие функции, в то время как гребень уменьшит влияние функций, которые не важны для прогнозирования ваших значений y.Этот алгоритм снижает влияние различных функций (например, гребня), не устраняя при этом все функции (например, лассо).

· Регрессия наименьшего угла (LARS) - аналогична прямой ступенчатой ​​регрессии. На каждом шаге он находит предиктор, наиболее коррелированный с ответом. Когда существует несколько предикторов, имеющих равную корреляцию, вместо того, чтобы продолжать работу по одному и тому же предиктору, он движется в одинаковом направлении между предикторами.

· Итеративный дихотомайзер 3 (ID3) - строит дерево сверху вниз.Он начинается с корня и выбирает атрибут, который будет проверяться на каждом узле. Каждый атрибут оценивается с помощью некоторых статистических средств, чтобы определить, какой атрибут лучше всего разделяет набор данных. Наилучший атрибут становится корневым, а значения его атрибутов разветвляются. Затем процесс продолжается с остальными атрибутами. После выбора атрибута вернуться к нему невозможно.

· C4.5 и C5.0 (разные версии мощного подхода) - C4.5, следующая итерация Куинлана - более новая версия ID3.Новые функции (по сравнению с ID3): (i) поддерживает как непрерывные, так и дискретные функции; (ii) обрабатывает неполные точки данных; (iii) решает проблему чрезмерной подгонки с помощью восходящей техники, обычно известной как «обрезка»; и (iv) различные веса могут применяться к функциям, которые составляют обучающие данные. C5.0, последняя итерация Quinlan. Эта реализация защищена патентом и, вероятно, в результате редко реализуется (вне коммерческих пакетов программного обеспечения).

· Дерево классификации и регрессии (CART) - CART - это , используемое в качестве аббревиатуры для термина дерево решений.В общем, реализация CART очень похожа на реализацию вышеупомянутого C4.5. Единственное отличие состоит в том, что CART строит деревья на основе критерия численного разделения, рекурсивно применяемого к данным, в то время как C4.5 включает промежуточный этап построения наборов правил.

· Автоматическое обнаружение взаимодействия по критерию хи-квадрат (CHAID) - алгоритм, используемый для обнаружения взаимосвязей между категориальной переменной ответа и другими категориальными переменными-предикторами. Он создает все возможные перекрестные таблицы для каждого категориального предиктора до тех пор, пока не будет достигнут лучший результат и дальнейшее разделение не будет выполнено.CHAID строит прогнозную модель или дерево, чтобы помочь определить, как переменные лучше всего объединяются для объяснения результата в данной зависимой переменной. В анализе CHAID могут использоваться номинальные, порядковые и непрерывные данные, в которых непрерывные предикторы разбиты на категории с примерно равным количеством наблюдений. Это полезно при поиске закономерностей в наборах данных с большим количеством категориальных переменных и является удобным способом обобщения данных, поскольку взаимосвязи можно легко визуализировать.

· Decision Stump - модель машинного обучения, состоящая из одноуровневого дерева решений; дерево с одним внутренним узлом (корнем), которое связано с конечными узлами (его листьями).Эта модель делает прогноз на основе значения только одной входной функции.

· M5- M5 объединяет обычное дерево решений с возможностью функций линейной регрессии в узлах. Помимо точности, он может выполнять задачи очень большой размерности - до сотен атрибутов. Дерево модели M5 является обучающим деревом решений для задачи регрессии, что означает, что оно используется для прогнозирования значений переменной числового отклика Y. Хотя дерево M5 использует тот же подход с деревом CART при выборе среднеквадратичной ошибки в качестве функции примеси, оно не назначает константа для листового узла, но вместо этого соответствует многомерной модели линейной регрессии.

· Наивный байесовский - предполагает, что наличие определенной функции в классе не связано с наличием какой-либо другой функции (независимость). Предоставляет способ вычисления апостериорной вероятности P (c | x) из P (c), P (x) и P (x | c). Полезно для очень больших наборов данных.

· Gaussian Naive Bayes- предполагает, что распределение вероятности является гауссовским (нормальным). Для непрерывных распределений предпочтительным алгоритмом является наивный Байесовский алгоритм.

· Полиномиальный наивный байесовский код - конкретный пример наивного байесовского метода, в котором P (Featurei | Class) следует полиномиальному распределению (количество слов, вероятности и т. Д.)). Это в основном используется для задачи классификации документов (относится ли документ к категории спорта, политики, технологий и т. Д.). Функции / предикторы, используемые классификатором, - это частота слов, присутствующих в документе.

· Средние оценки одной зависимости (AODE) - , разработанные для решения проблемы независимости атрибутов наивного байесовского классификатора. AODE часто разрабатывает значительно более точные классификаторы, чем наивный байесовский классификатор, с небольшими затратами и небольшим увеличением объема вычислений.

· Байесовская сеть убеждений (BBN) - вероятностная графическая модель (тип статистической модели), которая представляет набор переменных и их условных зависимостей через ориентированный ациклический граф (DAG). Например, байесовская сеть может представлять вероятностные отношения между болезнями и симптомами. Учитывая симптомы, сеть может использоваться для вычисления вероятности наличия различных заболеваний. BBN - это особый тип диаграммы (называемый ориентированным графом) вместе с соответствующим набором таблиц вероятностей.

· Байесовская сеть (BN) - Цель байесовских сетей состоит в моделировании условной зависимости и, следовательно, причинности путем представления условной зависимости ребрами в ориентированном графе. Используя их, вы можете эффективно делать выводы о случайных величинах на графике с помощью факторов.

· Скрытые марковские модели (HMM) - класс вероятностных графических моделей, которые дают нам возможность предсказывать последовательность неизвестных (скрытых) переменных из набора наблюдаемых переменных.Например, мы можем использовать его для прогнозирования погоды (скрытая переменная) на основе типа одежды, которую кто-то носит (наблюдаемой). HMM можно рассматривать как сеть Байеса, развернутую во времени, с наблюдениями, сделанными в последовательности временных шагов, которые используются для предсказания наилучшей последовательности скрытых состояний.

· Условные случайные поля (CRF) - классическая модель машинного обучения для обучения последовательных моделей. Это тип дискриминационного классификатора, который моделирует границу принятия решения между различными классами.Разница между дискриминативной и генеративной моделями состоит в том, что в то время как дискриминативные модели пытаются моделировать условное распределение вероятностей, то есть P (y | x), генеративные модели пытаются моделировать совместное распределение вероятностей, то есть P (x, y). Их основной принцип заключается в том, что они применяют логистическую регрессию к последовательным входам. Скрытые марковские модели имеют некоторые общие черты с CRF, одно в том, что они также используются для последовательных входов. CRF чаще всего используются для задач НЛП.

· K-Means - алгоритм, совершенно отличный от KNN (не путайте их!).K означает, что цель состоит в том, чтобы разделить X точек данных на K кластеров, где каждая точка данных назначена своему ближайшему кластеру. Идея состоит в том, чтобы минимизировать сумму всех квадратов расстояний в кластере для всех кластеров.

· single-linkage clustering - один из нескольких методов иерархической кластеризации. Он основан на группировании кластеров снизу вверх. При однократной кластеризации сходство двух кластеров - это сходство их наиболее похожих членов.

· K-Medians - вариант алгоритма K средних.Идея состоит в том, что вместо вычисления среднего значения для каждого кластера (чтобы определить его центроид) мы вычисляем медиану.

· Максимизация ожидания (EM) - он работает аналогично K-средству, за исключением того факта, что данные назначаются каждому кластеру с весами, которые являются мягкими вероятностями вместо расстояний. Его преимущество заключается в том, что модель становится генеративной, поскольку мы определяем распределение вероятностей для каждой модели.

· Иерархическая кластеризация - не разделяет набор данных на кластеры за один шаг.Вместо этого он включает несколько шагов, которые выполняются от одного кластера, содержащего все точки данных, до N кластеров, содержащих одну точку данных.

· Нечеткая кластеризация - форма кластеризации, в которой каждая точка данных может принадлежать более чем одному кластеру.

· DBSCAN (Пространственная кластеризация приложений с шумом на основе плотности) - используется для отделения кластеров с высокой плотностью от кластеров с низкой плотностью. DBSCAN требует всего два параметра: минимальное расстояние между двумя точками и минимальное количество точек для формирования плотной области.Это означает, что он группирует точки, которые расположены близко друг к другу (обычно евклидово расстояние) и минимальное количество точек.

· ОПТИКА (Точки упорядочивания для определения структуры кластера) - Идея, лежащая в основе этого, аналогична DBSCAN, но решает одну из основных слабых сторон DBSCAN: проблему обнаружения значимых кластеров в данных различной плотности.

· Факторизация неотрицательной матрицы (NMF) - Линейно-алгебраическая модель, которая преобразует векторы большой размерности в представление низкой размерности.Подобно анализу главных компонентов (PCA), NMF использует тот факт, что векторы неотрицательны. Факторируя их в форму более низкой размерности, NMF заставляет коэффициенты также быть неотрицательными.

· Скрытое распределение Дирихле (LDA) - тип вероятностной модели и алгоритм, используемый для обнаружения тем, присутствующих в корпусе. Например, если наблюдения - это слова, собранные в документы, для получения кластерных назначений необходимы два значения вероятности: P (слово | темы), вероятность того, что слово задано темами.И P (темы | документы), вероятность тематики заданных документов. Эти значения рассчитываются на основе первоначального случайного присвоения. Затем вы повторяете их для каждого слова в каждом документе, чтобы определить их тематическое назначение.

· Модель гауссовой смеси (GMM) - Ее цель - найти смесь многомерных гауссовских распределений вероятностей, которая наилучшим образом моделирует любой входной набор данных. Его можно использовать для поиска кластеров так же, как это делает k-means. Идея довольно проста, найти параметры гауссианов, которые лучше всего объясняют наши данные.Мы предполагаем, что данные нормальные, и мы хотим найти параметры, которые максимизируют вероятность наблюдения за этими данными.

· Изучение правил связывания - для заданного набора транзакций цель состоит в том, чтобы найти правила, которые будут предсказывать появление элемента на основе появления других элементов в транзакциях.

· Априори - имеет большое значение в интеллектуальном анализе данных. Это полезно для анализа часто встречающихся наборов элементов (коллекции из одного или нескольких элементов) и соответствующих правил ассоциации.Обычно вы используете этот алгоритм в базе данных, содержащей большое количество транзакций. Например, товары, которые покупатели покупают в супермаркете. Алгоритм Apriori сокращает количество кандидатов по следующему принципу: если набор элементов является частым, ВСЕ его подмножества являются частыми.

· Eclat (Преобразование класса эквивалентности) - Самое большое отличие от алгоритма Apriori состоит в том, что он использует поиск в глубину вместо поиска в ширину. В алгоритме Apriori элемент, основанный на продукте (товары в корзине 1, 2, 3, 3 и т. Д.)), но в алгоритме Eclat транзакция передается элементами (Корзина 100, 200 и т. д.).

· FP (Частая модель) Рост - помогает выполнять анализ рыночной корзины на основе данных транзакций. По сути, он пытается определить наборы товаров, которые часто покупаются вместе. FP-Growth предпочтительнее Apriori, потому что Apriori требует больше времени на выполнение для повторного сканирования набора данных транзакции для поиска частых элементов.

· Персептрон - отдельный узел нейронной сети.Персептрон состоит из одного или нескольких входов, процессора и одного выхода.

· Нейронные сети - биологически вдохновленный метод создания компьютерных программ, способных учиться и самостоятельно находить связи в данных.

· Back-Propagation - обычно используется алгоритмом оптимизации градиентного спуска для корректировки веса нейронов путем вычисления градиента функции потерь. Я стараюсь здесь просто (вы должны проверить математику, это довольно увлекательно)

· Сеть Хопфилда (HN) - HN являются разновидностью RNN.Их цель - сохранить 1 или несколько шаблонов и вызвать полные шаблоны на основе частичного ввода. Они гарантированно сходятся к локальному минимуму (но не обязательно к лучшему), а не к сохраненному шаблону (ожидаемому локальному минимуму). Сети Хопфилда также служат моделью для понимания человеческой памяти.

· Автоэнкодеры - , используемые для классификации, кластеризации и сжатия признаков. Автоэнкодеры - это алгоритм обучения без учителя. Задача автоэнкодера - изучить представление (кодирование) набора данных, обычно для уменьшения размерности, путем обучения сети игнорированию «шума» сигнала.”

· Машины Больцмана - мощная архитектура глубокого обучения для совместной фильтрации. Эта модель основана на распределении Больцмана, которое является неотъемлемой частью статистической механики и помогает нам понять влияние таких параметров, как температура и энтропия, на квантовые состояния в термодинамике. Машины Больцмана в основном делятся на две категории: модели на основе энергии (EBM) и машины Больцмана с ограничениями (RBM). Когда эти RBM накладываются друг на друга, они известны как сети глубокого убеждения (DBN).

· Машины Больцмана с ограничениями (RBM) - нейронных сетей, которые относятся к так называемым моделям на основе энергии. RBM - это параметризованная генеративная модель, представляющая распределение вероятностей, используемое для сравнения вероятностей (невидимых) наблюдений и выборки из изученного распределения, в частности, из предельных распределений, представляющих интерес.

· Пиковая нейронная сеть (SNN) - SNN принципиально отличается от обычных нейронных сетей, которые люди часто используют.SNN работают с использованием всплесков (которые представляют собой дискретные события, происходящие в определенные моменты времени), а не непрерывных значений. SSN имеют сходство с тем, как работают наши нейроны. Если вы рассматриваете мембранный потенциал в нашем теле, когда, когда нейрон достигает определенного потенциала, он резко увеличивается, а потенциал этого нейрона сбрасывается, всплеск SSN в чем-то похож (за исключением того факта, что возникновение всплеска определяется дифференциальным уравнения).

· Сеть радиальных базисных функций (RBFN) - тип искусственной нейронной сети, которая используется для обучения с учителем (регрессионные классификации и временные ряды).RBF-нейронные сети на самом деле являются NN с прямой связью (FF), которые используют радиальную базисную функцию в качестве функции активации вместо логистической функции.

· Глубокая машина Больцмана (DBM) - тип двоичного попарного марковского случайного поля (неориентированная вероятностная графическая модель) с несколькими слоями скрытых случайных величин. В отличие от Deep Belief Networks (DBN), DBM - это полностью ненаправленная модель. По сравнению с полностью подключенными машинами Больцмана (каждое устройство подключено к каждому другому устройству) DBM предлагает преимущества, аналогичные тем, которые предлагает RBM.Слои DBM также могут быть организованы в виде двудольного графа.

· Сети глубокого убеждения (DBN) - генеративные графические модели (класс глубокой нейронной сети), состоящие из нескольких уровней скрытых переменных (скрытых единиц), со связями между слоями, но не между единицами внутри каждого слоя.

· Сверточная нейронная сеть (CNN) - , особенно полезная для классификации и распознавания изображений. Они состоят из двух основных частей: части извлечения признаков и части классификации.(Подробнее см. Здесь).

· Составные автокодеры - нейронная сеть, состоящая из нескольких уровней автокодировщиков (обычно составные автокодеры выглядят как «сэндвич»), в которой выходы каждого слоя подключены к входам следующего слоя.

· Снижение размерности - алгоритм уменьшения размерности помогает нам уменьшить количество рассматриваемых случайных величин наряду с различными другими алгоритмами, такими как дерево решений, случайный лес, PCA и факторный анализ.

· Анализ главных компонентов (PCA) - статистическая процедура, в которой используется ортогональное преобразование для преобразования набора наблюдений возможно коррелированных переменных в набор значений линейно некоррелированных переменных, называемых главными компонентами. Первый компонент является наиболее важным, за ним следует второй, затем третий и так далее.

· Анализ независимых компонентов (ICA) - статистический метод выявления скрытых факторов, лежащих в основе наборов случайных величин, измерений или сигналов.

· Регрессия главных компонентов (PCR) - метод анализа данных множественной регрессии, страдающих мультиколлинеарностью. Основная идея ПЦР состоит в том, чтобы вычислить основные компоненты, а затем использовать некоторые из этих компонентов в качестве предикторов в модели линейной регрессии, подобранной с использованием типичной процедуры наименьших квадратов.

· Частичная регрессия наименьших квадратов (PLSR) - ПЦР создает компоненты для объяснения наблюдаемой изменчивости в переменных-предикторах, вообще не учитывая переменную ответа.С другой стороны, PLSR принимает во внимание переменную ответа и поэтому часто приводит к моделям, которые могут соответствовать переменной ответа с меньшим количеством компонентов.

· Sammon Mapping - алгоритм, который отображает пространство высокой размерности в пространство меньшей размерности, пытаясь сохранить структуру межточечных расстояний в пространстве высокой размерности в проекции более низкой размерности. иногда нам приходится задавать вопрос «какое нелинейное преобразование оптимально для некоторого заданного набора данных».Хотя PCA просто максимизирует дисперсию, иногда нам нужно максимизировать какой-то другой показатель, который представляет степень, в которой сложная структура сохраняется преобразованием. Существуют различные такие меры, и одна из них определяет так называемое отображение Саммона. Он особенно подходит для использования в исследовательском анализе данных.

· Многомерное масштабирование (MDS) - средство визуализации уровня схожести отдельных случаев набора данных.

· Прогнозирование - тип статистического метода, который включает в себя поиск наиболее «интересных» возможных прогнозов в многомерных данных.Часто более интересными считаются прогнозы, которые больше отклоняются от нормального распределения.

· Линейный дискриминантный анализ (LDA) - если вам нужен алгоритм классификации, вы должны начать с логистической регрессии. Однако LR традиционно ограничивается только двумя задачами классификации классов. Теперь, если ваша проблема включает более двух классов, вам следует использовать LDA. LDA также работает как алгоритм уменьшения размерности; он уменьшает количество измерений от исходного до C - 1 количество функций, где C - количество классов.

· Дискриминантный анализ смеси (MDA) - Это расширение линейного дискриминантного анализа. Это контролируемый метод классификации, основанный на моделях смеси.

· Квадратичный дискриминантный анализ (QDA) - Линейный дискриминантный анализ может изучать только линейные границы, в то время как квадратичный дискриминантный анализ может изучать квадратичные границы (следовательно, он более гибкий). Однако, в отличие от LDA, в QDA не предполагается, что ковариация каждого из классов идентична.

· Гибкий дискриминантный анализ (FDA) - модель классификации, основанная на смеси моделей линейной регрессии, в которой используется оптимальная оценка для преобразования переменной отклика, чтобы данные были в лучшей форме для линейного разделения и множественной адаптивной регрессии сплайны для создания дискриминантной поверхности.

  • Методы ансамбля - алгоритмы обучения, которые создают набор классификаторов, а затем классифицируют новые точки данных, принимая взвешенное голосование за их прогнозы.Первоначальный метод ансамбля - это байесовское усреднение, но более поздние алгоритмы включают кодирование выходных данных с исправлением ошибок, пакетирование и усиление.
.

Упрощенный алгоритм определения отношения с использованием акселерометра и магнитометра с чрезвычайно малым временем выполнения

Определение ориентации акселерометром-магнитометром является распространенным и жизненно важным методом обработки среды в промышленной робототехнике и бытовой электронике. В этой статье мы сообщаем о новом решении аналитического отношения к комбинации акселерометра и магнитометра в смысле проблемы Вахбы. Матрица Дэвенпорта задана аналитически и вычислены ее собственные значения. С помощью выводов собственные значения упрощаются до очень коротких выражений.Затем соответствующие собственные векторы задаются соответственно посредством операций со строками матрицы. Система сильно оптимизирована на основе факторизации и упрощения полученной строчно-эшелонированной формы, что на практике делает ее вычислительно быстрой. Таким образом, он назван комбинацией быстрого акселерометра и магнитометра (FAMC). Проведены эксперименты на правильность и преимущества предлагаемого решения. Результаты показывают, что по сравнению с традиционными решениями предлагаемое аналитическое решение не только правильное и точное, но и, насколько нам известно, является наиболее эффективным по времени.

1. Введение

С развитием технологии микроэлектромеханических систем (МЭМС) крошечные датчики ориентации стали обязательным компонентом современной бытовой электроники, включая смартфоны, носимые устройства и дроны [1–4]. Наиболее типичным интегрированным датчиком среди прочих является комбинация акселерометра и магнитометра (AMC) [5]. Согласно базовому поиску в производственном списке основных поставщиков электроники, существует более 6 типов таких датчиков, например, Invensense MPU-925x, NXP / Freescale FXOS8700CQ6, Bosch BMX055 и BNO055, STMicroelectronics LSM303D и Kionix KMX61G [6 –10].AMC объединяет местную гравитацию и магнитное поле Земли вместе, образуя полную систему оценки положения [11]. Такой модуль всегда предназначен для экономии энергии по сравнению с относительно энергоемкими устройствами, такими как гироскопы. Концепция виртуального гироскопа включает в себя извлечение угловой скорости из AMC, которая позже будет использоваться для определения движения, обнаружения жестов и т. Д. [12]. Чтобы быть совместимым с такой схемой, необходимо открыть один точный и эффективный по времени алгоритм оценки ориентации от AMC [13].

В последнее десятилетие было несколько подходов к решению проблемы определения отношения AMC. Ранние исследования основаны на электронном компасе, в котором углы Эйлера вычисляются с использованием тригонометрических соотношений между осями датчиков [14]. Из-за особенности углов Эйлера при наличии карданного замка такой алгоритм заменяется оптимизацией по квадратичной нелинейной системе кватернионов. Для получения решения системы применяется алгоритм Гаусса-Ньютона (GNA) [15].Затем для решения этой проблемы исследуются другие методы оптимизации, включая улучшенный GNA (IGNA, [16]), алгоритм градиентного спуска (GDA, [17]) и алгоритм Левенберга-Марквардта (LMA, [18]). Вышеупомянутые методы требуют рекурсивных вычислений до сходимости решения. Поэтому их обычно ускоряют, добавляя гироскоп для прогнозирования кинематики ориентации.

Помимо рекурсивных методов, в инженерной практике очень популярны алгоритмы пакетной обработки.Наиболее известной формулировкой определения отношения должна быть проблема Вахбы [19], предложенная в 1965 году и обеспечивающая функцию потерь по методу наименьших квадратов между наблюдениями вектора сенсора и их относительными весами. Проблема Вахбы была эффективно решена с помощью кватернионной оценки (QUEST, [20]), быстрой матрицы оптимального отношения (FOAM, [21]), оценки кватерниона (ESOQ, [22]), разложения по сингулярным числам (SVD, [23] ), Метод римановых многообразий [24], наша недавняя быстрая линейная оценка ориентации (FLAE, [25]) и так далее.Эти алгоритмы совместно решают проблему Вахбы, вычисляя максимальное собственное значение матрицы Давенпорта, что впервые было предложено в [26]. Решения Wahba быстрые, но есть особая проблема для AMC, когда опорный вектор магнитометра должен быть измерен до определения ориентации. Такая справочная информация фактически меняется в зависимости от положения управляемого устройства, что ограничивает его использование, когда нет никаких предварительных сведений о глобальном статусе положения [5, 27, 28]. Типичным обязательством для точной системы отсчета курса является аппроксимация местного магнитного поля через GPS-координаты.Однако, когда магнитное поле искажено внешними возмущениями, такой метод будет иметь большие смещения не только по рысканию, но и по крену и тангажу.

Ядра решения вышеуказанной проблемы состоит в динамически вычислить магнитный опорный вектор. Для рекурсивных методов они обычно получают информацию, вращая текущее магнитное измерение через последний оцененный кватернион, так что углы крена и тангажа практически не могут быть нарушены. Некоторые другие полезные методы разработаны с использованием геометрических соотношений внутри комбинации датчиков.Например, факторный алгоритм кватернионов (FQA, [29]) разработан Юном и др. путем вращения каждой оси Эйлера через элементарные кватернионы. На основе самого АМС, этот алгоритм не требует опорного магнитометра вектора. Из-за отсутствия тригонометрических функций сингулярность фактически представлена ​​и решается вращением во избежание сингулярности. Было проверено, что это точный метод отслеживания движения человека и определения положения транспортного средства. Кроме того, недавно Валенти и др. Предложили алгебраический алгоритм QUAternion (AQUA, [30]).для определения отношения AMC. Алгоритм основан на независимых ограничивающих решениях кватернионов от акселерометра и магнитометра соответственно. Это было доказано эффективным и не зависит от внешней информации опорного магнитометра вектора тоже.

Вышеупомянутая электронная конструкция AMC требует быстрого и точного алгоритма определения ориентации. Фактически, обращаясь к случаю двух векторов, Маркли разработал очень быстрые общие решения в замкнутой форме для проблемы Вахбы в [31, 32].Кроме того, недавно с публикацией нашего нового алгоритма FLAE, обычная проблема Вахбы может быть решена с гораздо большей скоростью вычислений. Кажется, что исследования этой темы не нуждаются в продолжении. Однако предыдущие работы в основном касались логики объединения датчиков, а не внутренних вычислений. Для платформы с низкой конфигурацией оборудования требуется оптимизировать все архитектуры, чтобы система могла работать в хорошем состоянии. Что не было учтено бывшими исследователями в соответствующих работах, так это операции внутренней матрицы слияния датчиков внутри определения ориентации.Для конкретного случая AMC использование вышеуказанных инструментов может дать дальнейшие упрощенные решения. Исходя из этой цели, мы упрощаем внутреннюю математику задачи Вахбы на основе AMC и получаем некоторые очень полезные аналитические результаты, с помощью которых сохраняется точность, а затраты времени значительно сокращаются, создавая основу для быстрой комбинации акселерометра и магнитометра ( FAMC). Основные вклады резюмируются следующим образом: (1) Уравнение синтеза AMC пересмотрено, и проблема AMC Wahba пересмотрена.Аналитические результаты на собственные значения приведены для динамического опорного магнитометра вектора случае (2) Раствор кватернионов дается через значительно упрощает оригинальное решение Вахба от Davenport -метода. Обязательные параметры представлены для быстрых вычислений. (3) Предлагаемый FAMC подтвержден с помощью реальных экспериментов. Его сравнивают с репрезентативными методами, упомянутыми выше, чтобы показать его преимущества, особенно с точки зрения затрат времени.

Эта статья вкратце структурирована следующим образом: Раздел 2 содержит краткий обзор проблемы Вахбы и представляет аналитические результаты и связанные с ними выводы.Раздел 3 включает экспериментальную проверку и сравнения с репрезентативными методами. Раздел 4 состоит из заключительных замечаний.

2. Предлагаемое аналитическое решение для AMC

AMC может быть связано с помощью матрицы направляющих косинусов (DCM) C [33], так что где и - нормированные векторы наблюдения от акселерометра и магнитометра в корпусе корпуса соответственно. В этой статье система координат r выбрана в качестве системы координат Северо-Восток-Вниз (NED).Следовательно, опорные векторы здесь равны и [34]. Обратите внимание, что опорный вектор магнитометра фактически связан с местным углом магнитного падения [35].

Поскольку угол падения имеет диапазон получаем

.

% PDF-1.4 % 2221 0 объект> endobj xref 2221 92 0000000016 00000 н. 0000003305 00000 н. 0000003518 00000 н. 0000002183 00000 п. 0000003571 00000 н. 0000003700 00000 н. 0000003859 00000 н. 0000004040 00000 н. 0000005100 00000 н. 0000005264 00000 н. 0000007168 00000 н. 0000008228 00000 н. 0000009299 00000 н. 0000010375 00000 п. 0000011442 00000 п. 0000012506 00000 п. 0000013572 00000 п. 0000013730 00000 п. 0000013908 00000 п. 0000014082 00000 п. 0000014250 00000 п. 0000014414 00000 п. 0000014582 00000 п. 0000015041 00000 п. 0000015339 00000 п. 0000015413 00000 п. 0000015494 00000 п. 0000015614 00000 п. 0000015714 00000 п. 0000015763 00000 п. 0000015899 00000 н. 0000015948 00000 н. 0000016052 00000 п. 0000016152 00000 п. 0000016289 00000 п. 0000016338 00000 п. 0000016428 00000 п. 0000016523 00000 п. 0000016688 00000 п. 0000016736 00000 п. 0000016822 00000 п. 0000016907 00000 п. 0000017023 00000 п. 0000017071 00000 п. 0000017177 00000 п. 0000017225 00000 п. 0000017272 00000 п. 0000017378 00000 п. 0000017426 00000 п. 0000017542 00000 п. 0000017590 00000 п. 0000017730 00000 п. 0000017778 00000 п. 0000017931 00000 п. 0000017979 00000 п. 0000018093 00000 п. 0000018232 00000 п. 0000018389 00000 п. 0000018437 00000 п. 0000018538 00000 п. 0000018641 00000 п. 0000018749 00000 п. 0000018797 00000 п. 0000018902 00000 п. 0000018950 00000 п. 0000018998 00000 п. 0000019115 00000 п. 0000019163 00000 п. 0000019286 00000 п. 0000019334 00000 п. 0000019446 00000 п. 0000019494 00000 п. 0000019638 00000 п. 0000019686 00000 п. 0000019734 00000 п. 0000019782 00000 п. 0000019911 00000 п. 0000019959 00000 п. 0000020130 00000 н. 0000020178 00000 п. 0000020309 00000 п. 0000020357 00000 п. 0000020475 00000 п. 0000020523 00000 п. 0000020571 00000 п. 0000020619 00000 п. 0000020667 00000 п. 0000020715 00000 п. 0000020763 00000 п. 0000020812 00000 п. 0000020861 00000 п. 0000003084 00000 н. трейлер ] >> startxref 0 %% EOF 2224 0 obj> поток xb``b`c`2J 9 и 8 (00 (r80 (08 YNn EI

.

Смотрите также