Содержание

Разреженный эффект наращивания ресниц: особенности и преимущества

Из этой статьи вы узнаете:

  • Что представляет собой разреженный эффект наращивания ресниц
  • В чем преимущества разреженного эффекта наращивания
  • Кому не подойдет разреженный эффект наращивания
  • Как проходит процедура наращивания
  • Как ухаживать за наращенными ресницами

Каждая женщина стремится придать дополнительную выразительность взгляду, используя самые разные косметические средства: тени, подводку, тушь. Одним из самых простых и долговременных способов является наращивание ресниц. Эта процедура входит в число наиболее востребованных услуг салонов красоты. Существует несколько различных ее видов, но одним из лидеров мастера называют разреженный эффект наращивания ресниц. Его популярность объясняется максимальной естественностью результата. Другое название этого способа – наращивание «лучиками» из-за визуальной схожести с солнечными лучами благодаря чередованию коротких и длинных волосков.

Принцип разреженного эффекта наращивания ресниц

Преимущество наращивания с разреженным эффектом заключается в придании глазам густого обрамления, не выходящего за рамки естественности.


Отличие этого способа от обычного – в добавлении дополнительных волосков не на каждую ресницу, а через некоторые промежутки. Разреженный эффект наращивания ресниц признается мастерами более простым в работе. При фиксации учитываются особенности естественного роста для максимальной натуральности взгляда.

По основному принципу технология схожа с классической, однако в результате эффекта разреженного наращивания мастеру удается достичь наибольшей густоты. Такие ресницы выглядят как настоящие, окружающим видна только естественная красота глаз. Именно за это способ разреженного наращивания любят женщины, стремящиеся подчеркнуть природную привлекательность.

Преимущества разреженного эффекта наращивания

Как правило, наращивание ресниц с разреженным эффектом производится при помощи синтетических волосков от 6 до 14 мм. Мастер решает, с каким интервалом их закреплять, в индивидуальном порядке, исходя из толщины и густоты собственных ресниц клиента.


Популярность «лучиков» объясняется некоторыми явными преимуществами по сравнению с другими методами:

  • Эффект абсолютной натуральности. Человеку, далекому от индустрии красоты, и в голову не придет, что над приданием взгляду выразительности поработал профессионал.
  • Полное отсутствие дискомфорта благодаря малому весу синтетических волосков. Спустя короткое время они совершенно перестают ощущаться как нечто инородное, воспринимаются как свои.
  • «Лучики» полностью вписываются в актуальную тенденцию естественного макияжа. Для дневного варианта достаточно добавить тени натуральных тонов.

В-изгиб, столь популярный сегодня, идеально подходит молодым девушкам, чьим глазам не нужна коррекция. В результате эффекта разреженного наращивания взгляд становится свежим и игривым, при этом сохраняется абсолютная натуральность. Если речь идет о более зрелых дамах, которым необходимо визуально приподнять нависшие веки, мастер подбирает искусственные волоски с другим изгибом. Однако чтобы «лучики» выглядели превосходно, собственные ресницы должны быть достаточно густыми. Это позволит создать привлекательный образ с некоторой таинственностью во взгляде.

Характеристика способа


Прежде чем приступать непосредственно к процедуре, мастер должен согласовать с клиенткой все детали. В распоряжении лэшмейкера находится несколько вариантов искусственных волосков. Обсуждается также расстояние между прикрепляемыми ресничками.

Отличительными чертами разреженного наращивания являются:

  • Естественность. Именно этот фактор становится решающим для многих женщин, которые стремятся усилить выразительность взгляда, но при этом не хотят, чтобы эффект был слишком заметен для окружающих.
  • Легкость. При таком способе наращивания используются легкие материалы, благодаря чему искусственные волоски не будут ощущаться, особенно при условии высокого профессионализма мастера.

В итоге ваши глаза приобретут неповторимый шарм, и вы не будете чувствовать ни малейшего дискомфорта.

Результат разреженного эффекта


Как правило, женщины подчеркивают выразительность глаз при помощи туши. Если провести процедуру наращивания, о макияже можно забыть. В течение двух-трех недель пушистые густые волоски с естественным изгибом будут радовать их обладательницу и окружающих ее людей. Разреженный эффект наращивания ресниц, фото которого говорит само за себя, позволяет обходиться без туши, требующей ежедневного нанесения и тщательного удаления.

Итогом работы профессионала станет естественный взгляд в обрамлении длинных загнутых ресниц, и вам не придется каждое утро тратить у зеркала драгоценные минуты.

Противопоказания

  1. Мастера не советуют делать процедуру, в том числе с разреженным эффектом, обладательницам сухой кожи. Дефицит влаги повышает чувствительность эпидермиса к воздействию химических веществ, может возникнуть дискомфорт, ощущение стянутости.
  2. Если собственные волоски не отличаются густотой и силой, это тоже может стать причиной отказа от наращивания. В любом случае перед лэшмейкером стоит непростая задача, требующая индивидуального подхода при выборе технологии и материала.
  3. Не стоит задумываться о наращивании с разреженным эффектом во время острых заболеваний глаз – конъюнктивита, блефарита, аллергических проявлений. Визит к мастеру придется отложить до полного выздоровления.
  4. Необходимо предупредить специалиста о непереносимости каких-либо веществ, чтобы он мог подобрать безвредные для вас материалы для проведения процедуры.

12 студий по всей Москве, в Санкт-Петербурге, Нижнем Новогороде и Туле

223 мастера на любой вкус

Качественное обслуживание с гарантией 7 дней

Регулярные акции и подарки для клиентов

Забронировать скидку 25%

Коррекция наращенных ресниц

Средний срок, в течение которого держатся наращенные ресницы с разреженным эффектом, составляет один месяц. Однако его можно продлить, если строго следовать рекомендациям лэшмейкера.

По истечении месяца придется сделать коррекцию, а тем, у кого жирная кожа, посетить мастера следует еще раньше – через три недели. Использование туши и подводки приведет к тому, что коррекции будет недостаточно, наращивание с разреженным эффектом придется повторять каждый месяц, ведь полностью очистить корни ресниц от косметических средств невозможно.

Как ухаживать за наращенными ресницами


Чтобы максимально продлить разреженный эффект наращивания, необходимо знать и выполнять определенные правила ухода за обновленными волосками:

  • В течение двух часов после завершения процедуры нельзя умываться или использовать косметические средства. За это время клей, которым мастер зафиксировал искусственные волоски, схватится.
  • Из арсенала средств по уходу придется исключить косметику на масляной или спиртовой основе, чтобы не растворить клеевой состав.
  • С глазами следует обращаться очень бережно. Не стоит их тереть, сильно нажимать при промывании ватными дисками. Все операции, подразумевающие механическое воздействие, лучше свести к минимуму.
  • Вредны для наращенных ресниц с разреженным эффектом резкие перепады температур. От посещения бани рекомендуется отказаться – горячий влажный воздух может негативно отразиться на состоянии волосков.
  • Особое внимание состоянию кожи в области глаз следует уделять тем, у кого она отличается повышенной содержанием жирностью. Регулярное протирание позволит продлить срок ношения искусственных ресничек.
  • Применение декоративной косметики лучше свести к минимуму. Эффект накрашенных ресниц достигается самим фактом их наращивания разреженным способом. Тушь придется смывать, что неизбежно приведет к потере искусственных волосков.
  • Спать необходимо осторожно, желательно на спине, чтобы случайно не помять волоски.
  • Дополнительно закручивать наращенные ресницы нельзя, они могут поломаться от неосторожного воздействия. Как правило, искусственные волоски имеют изгиб, который не нуждается в дополнительной коррекции.
  • Утром искусственные волоски расчесывают специальной щеточкой. Уход перед сном включает использование пенки для умывания.
  • Продлить срок службы наращенных ресниц с разреженным эффектом поможет использование закрепителей, которые выпускаются многими производителями косметики. Эти средства позволяют избежать скручивания и склеивания волосков между собой.
  • К сожалению, многие девушки снимают волоски самостоятельно, что категорически противопоказано. Без должной подготовки и специальных средств можно повредить собственные ресницы, а также травмировать роговицу глаза.

Чтобы наращивание ресниц с разреженным эффектом прошло идеально, а период их ношения не доставлял хлопот и был максимально длительным, необходимо перед процедурой получить консультацию опытного специалиста. Он не только подберет оптимальную методику и материалы, но и расскажет обо всех тонкостях ухода за обновленными волосками.


Риск занести инфекцию

Если услуга предоставляется профессионалом, вероятность получить какие-либо заболевания глаз исключена, но некоторых неприятностей иногда избежать не удается. Так, организм может отреагировать на химическую формулу клея заложенностью носа. На гелевые подушечки, которые отделяют нижние ресницы во время процедуры, у некоторых клиенток возникает аллергическая реакция. Не исключен химический ожог роговицы, если веки будут открываться в процессе наращивания. Отсутствие должной гигиены глаз может обернуться закисанием.

Перерыв между наращиванием

Наращивание с разреженным эффектом не имеет никаких негативных последствий для собственных ресниц. Искусственные волоски и современные клеевые составы не только не портят натуральные, но даже улучшают их качество. Это отмечают многие клиенты лэшмейкеров. При желании можно повторять процедуру без какого-либо перерыва. Если не было возможности посетить мастера, спустя два месяца наращенные ресницы постепенно отпадут естественным образом.

Последствия наращивания ресниц

Случаи истончения «родных» волосков отмечаются при условии неправильно подобранной нагрузки на них: слишком большой диаметр искусственных волосков (0,20 или 0,25) или чрезмерный объем.

При таких повреждениях необходимо дать ресницам отдых: отказаться от всех процедур, использовать для восстановления репейное масло, втирая его в кожу век, применять лечебную тушь. Спустя месяц натуральные волоски придут в норму, и можно будет снова делать наращивание с разреженным эффектом, конечно, с учетом прежних ошибок.

Снятие ресниц

Для удаления искусственных фрагментов применяются специальные препараты. Профессионалы предпочитают использовать крем-пасту, которая втирается в прикорневую зону и оставляется на 15 минут. После этого приклеенные волоски аккуратно снимаются, а остатки крема убираются.

Макияж для наращенных ресниц


Мы уже говорили, что красить наращенные волоски не требуется. Однако для особо торжественных случаев, чтобы придать им дополнительный объем, можно воспользоваться силиконовой тушью.

Как видите, разреженный эффект наращивания может принести вам массу положительных эмоций, ведь вы будете выглядеть привлекательнее, не затрачивая дополнительных усилий. Главное, как при любой процедуре, имеющей отношение к внешности, – выбрать грамотного профессионала и надежный салон, где строго соблюдаются все требования.

Разреженный эффект наращивания ресниц – технология, которая позволяет вашим глазам выглядеть натурально, в то же время придавая им дополнительный шарм и привлекательность.


Разреженный эффект наращивания ресниц: фото до и после, цена, отзывы

Разнообразие эффектов наращивания ресниц открывает доступ к возможностям не только оригинально экспериментировать с образами, но и  успешно скрывать видимые несовершенства внешности. Чтобы придать взгляду экспрессии и сохранить его предельную естественность, совсем не обязательно заострять внимание на классическом методе.

Интересным решением может стать наращивание ресниц с разреженным эффектом, позволяющее увеличить длину ресничек и визуально «распахнуть» глаза. Такая техника дает шанс забыть о ежедневном ритуале нанесения макияжа и потратить это время на более полезные и важные задачи. А эффектные «лучики» позаботятся о притягательном взгляде.

Суть и особенности метода

Разреженное наращивание ресниц предполагает использование искусственных волосков нескольких размеров, которые накладываются не на каждую «родную» ресницу, а чередуются с установленным интервалом. Контур век при этом не меняется, а ресницы сохраняют естественную пышность.

Нюансы технологии:

  • разреженный эффект наращивания ресниц достигается благодаря попеременному чередованию коротких и длинных искусственных волосков (к примеру, 6 мм и 10 мм, 10 мм и 14 мм, 8 мм и 12 мм) с соблюдением интервала между ними;
  • расстояние между «лучиками» определяет природная густота натурального ресничного ряда;
  • нарощенные ресницы отличаются практически невесомой легкостью, поэтому не утяжеляют веко и не создают дискомфорт при ношении;
  • естественная форма и легкий изгиб наращенных волосков позволяют достичь яркого, но неброского визуального эффекта.

По времени сеанс может занять от 2 до 3 часов, поскольку мастеру придется предельно тщательно следовать схеме работы с каждым веком и строго контролировать интервалы между длинными и короткими накладными волосками. Стоимость наращивания будет зависеть от профессионализма лэшмейкера.

Кому подходит

Поскольку формирование разреженного эффекта не корректирует форму глаз, этот метод подходит всем представительницам прекрасного пола, желающим без вреда для натуральной красоты сделать реснички немного объемнее и придать им заветную головокружительную длину. Заманчивый изгиб в конечном итоге получат обладательницы коротких или густых и пышных ресниц от природы. Однако существуют некоторые ограничения – для слабых и тонких «родных» ресничек, нуждающихся в добавлении объема, лучше подобрать другие методы.

Так как в результате процедуры взгляд не становиться вызывающе театральным, такой вариант уместен как в повседневной жизни, так и для особенных случаев. Длинные «лучики» удачно сочетаются со всевозможными стилями – от непринужденной практичности casual до консервативной и строгой классики.

Материалы

Чтобы удачно нарастить разреженные ресницы, следует правильно подобрать не только варианты длин искусственных волосков, но и материалы для процедуры. Лэшмейкеры при формировании изящных «лучиков» предпочитают использовать ультратонкие «шелковые» волокна толщиной от 0,05 мм до 0,07 мм. Они практически повторяют структуру и толщину натурального волоса, поэтому не создают ощущения тяжести и гарантируют выразительный эффект. Опытные мастера рекомендуют применять слабый C или подкрученный D изгиб, однако в некоторых случаях яркий L-завиток может смотреться более уместно и красиво.

Не менее важен выбор клея – лучший результат дают профессиональные составы, обладающие высокими показателями сцепки, достаточной эластичностью после высыхания, удобной для наклеивания жидкой консистенцией и гипоаллергенными свойствами.  

Безупречность взгляда от «THE LASHES»

Лэшмейкеры студии «THE LASHES» в Москве – опытные профессионалы, имеющие опыт свыше 1300 успешных процедур наращивания с впечатляющим эффектом, которые готовы трудиться над воплощением вашей мечты о роскошном выразительном взгляде. Наши мастера всегда учитывают пожелания клиента и находят наиболее подходящие в каждом индивидуальном случае способы для их реализации.

Трендовое наращивание ресниц с разреженным эффектом, фото до и после которого можно посмотреть на нашем сайте, мы выполняем по актуальной цене, полностью соответствующей уровню мастерства beauty-волшебниц салона «THE LASHES» и высококлассным премиальным материалам ведущих брендов Швейцарии, Германии и Южной Кореи.

0 0 votes

Рейтинг статьи

Разреженный эффект нарощенных ресниц: фото, схема наращивания

Наращивание ресниц

Наращивание ресниц является одним из самых быстрых и доступных способов придания дополнительной выразительности женскому

Наращивание ресниц

Девушки идут на многое, чтобы выглядеть ухоженно и привлекать внимание противоположного пола. Загадочный и

Наращивание ресниц

Что же представляет из себя «классическое наращивание ресниц»? На самом деле, всё довольно просто-

Схемы наращивания

Схема создания кошачьего эффекта заключается в приклеивании искусственных волосков средней длины от внутреннего уголка

Схемы наращивания

Все схемы создания беличьего взгляда предполагают использование щетинок разной длины. Самые длинные ресницы прикрепляют

Схемы наращивания

Отличительной чертой схем наращивания кукольного эффекта является использование волосков практически одинаковой длины вдоль всего

схема и технология прикрепления нарощенных ресничек

Наращивание ресниц является одним из лидеров в списке наиболее популярных косметических процедур. Благодаря наращиванию можно визуально увеличить глаза, скорректировать их форму – и при этом выгодно подчеркнуть взгляд. Мастер создает определенный эффект, ориентируясь на особенности внешности.

Особой популярностью сегодня пользуются классика и разреженный эффект наращивания ресниц.

Нужно будет не только выбрать длину и изгиб. Необходимо поразмыслить и над тем, какой эффект сможет выгодно подчеркнуть вашу привлекательность. Обычно эта задача возлагается на плечи мастера, так как он может более точно определить подходящий вариант. Лешмейкер подбирает самую удачную комбинацию длины, изгиба и толщины, ориентируясь на анатомию глаз и черты лица клиента.

Особенности

На сегодняшний день существует большое количество эффектов для наращенных ресниц. Наиболее востребованным является натуральный вид. Ресницы фиксируют таким образом, чтобы они полностью соответствовали особенностям естественного ряда.

Что касается разреженного эффекта, то в этом случае искусственные волоски крепят с соблюдением определенного интервала. Этот вид по технологии схож с классикой, но разница заключается в густоте. При разреженном эффекте ресницы выглядят более пышными и выразительными.

Преимущества и недостатки

Как и любая косметическая процедура, наращивание с разреженным эффектом обладает своими плюсами и минусами. К основным преимуществам такой процедуры можно отнести следующие:

  • ресницы становятся более густыми и объемными;
  • нет необходимости в использовании косметики;
  • эффект отличается длительностью;
  • разреженный вид позволяет сохранить естественность.

Если сравнивать с другими эффектами, можно отметить, что ресницы, наращенные таким способом, смотрятся довольно натурально. Это позволяет сохранить максимальную естественность в образе. Кроме того, ресницы выглядят выразительно как в повседневном, так и в вечернем макияже. Плюс заключается в том, что вам не придется использовать дополнительную косметику и инструменты для завивки.

Густые ресницы выгодно обрамляют глаза. Это позволяет добиться выразительности во взгляде, что является одним из главных преимуществ.

Конечно, существуют и определенные минусы. Первое, на что стоит обратить внимание – клей для наращивания. Если мастер использует для работы некачественный дешевый состав, в дальнейшем это приведет не к самым приятным последствиям. Под влиянием определенных компонентов натуральные ресницы теряют свою красоту и блеск, становятся ломкими. После снятия искусственных волосков необходимо заниматься восстановлением.

Стоит обратить внимание и на то, что разреженный эффект и другие варианты не подходят обладательницам сухой кожи. После проведения процедуры присутствует небольшой дискомфорт, есть чувство стянутости.

Еще одним немаловажным моментом является выбор подходящего эффекта. Разреженный вид подходит практически всем девушкам.

Как уже было отмечено выше, схема наращивания таких волосков несколько напоминает классический вариант. Разница заключается в интервале. Благодаря этой процедуре можно добиться максимальной выразительности, оставив при этом естественность в образе.

Главное преимущество этой процедуры заключается в том, что ее можно использовать даже при наличии собственных густых ресниц. Дополнительные искусственные волоски увеличивают длину, придают изгибу более привлекательную форму.

Стоит отметить, что создание подобного эффекта требует от мастера определенных навыков, иначе конечный результат не будет радовать даму. Обусловлено это тем, что специалисту необходимо работать с ресницами разной длины. В этом случае важно правильно подобрать все волоски таким образом, чтобы они полностью соответствовали естественному ряду.

Особенность разреженного эффекта заключается в том, что даже при использовании ресниц разной длины форма глаз остается неизменной. Если вы хотите визуально скорректировать что-то, от этого вида процедуры лучше отказаться.

Разреженный эффект подойдет обладательницам коротких ресниц. Накладные волоски не создают ощущения тяжести, после наращивания все выглядят аккуратно, но эффектно.

Советы по уходу

Если вы решили обратиться к разреженному эффекту, то стоит ознакомиться и с основными правилами ухода за наращенными ресницами. Для начала нужно сказать, что умываться или использовать косметические средства для очищения можно только через 2-3 часа после процедуры. Обусловлено это тем, что при контакте с водой клей, который еще не успел окончательно закрепиться, теряет свои свойства.

В процессе ухода за лицом не рекомендуется использовать жирные составы и средства, в основе которых присутствует спирт. Компоненты, содержащиеся в косметике, быстро растворяют клей.

Стоит обратить внимание и на то, что нельзя тереть глаза. Многие мастера по наращиванию рекомендуют использовать для очищения ватные тампоны, так как умывание негативно сказывается на состоянии ресниц.

Необходимо отметить, что искусственные волоски «боятся» температурных перепадов. Рекомендуется отказаться от похода в сауну, так как высокие температуры способствуют потере свойств клеевого состава.

Особенно внимательными нужно быть обладательницам жирной кожи. Нужно тщательно очищать лицо. Обусловлено это тем, что от жирной кожи искусственные волоски отслаиваются намного быстрее, чем от сухой.

Нередко девушки стараются самостоятельно снять ресницы, чего делать не стоит. При неправильном подходе к делу можно навредить собственным волоскам. Лучше всего обратиться за помощью к мастеру, который проведет процедуру с использованием специальных средств.

Девушкам и женщинам, имеющим склонность к аллергическим реакциям, стоит отказаться от наращивания. Клеевые составы способны вызвать раздражение.

Еще одним противопоказанием к наращиванию является наличие ослабленных тонких ресниц. В противном случае они не выдержат дополнительной нагрузки – даже при разреженном эффекте.

Подробный процесс наращивания ресниц показан в следующем видео.

фото, схема, кому подойдёт, уход, коррекция, отличие от лучиков, видео

Наращивание ресниц позволяет не только получить красивый взгляд, но и скорректировать форму глаз, визуально делая её более правильной геометрии. Но не всем девушкам нужны такие исправления. Тем кому они не требуются, подойдёт разреженный эффект наращивания ресниц, который не меняет параметры глаз, а лишь слегка их выделяет.

Давайте узнаем, что это за способ моделирования взгляда, кому он подходит, как выглядит и делается.

Что такое разреженный эффект

Это способ наращивания ресниц, при котором приклеивание искусственных волосков делается не на каждую родную ресничку, а через определённый интервал.

Результат после выполнения разреженного эффекта получается наиболее приближенным к натуральному, так как наращивается небольшое количество новых волосков. Создаётся впечатление, что это свои реснички имеют такую пышность от природы. Из-за неполного наращивания кажется, что просто нанесён макияж при помощи туши.

Разреженный эффект создаётся только классическим способом наращивания — поресничным. Объёмы 2D и 3D не делаются, так как в этом случае сильно выделяются пустые интервалы. А при неизбежном выпадении двойных или тройных пучков ресниц, проплешины становятся видны ещё больше.

Плюсы и минусы

Разреженные ресницы женщинам нравится делать из-за эффектного результата, а мастера его предпочитают, так как выполнение требует меньшего объёма работ.

Но в первую очередь, его главный плюс в том, что это максимально приближенный к натуральному виду ресниц эффект. А также он имеет следующие преимущества:

  • не нужно ежедневно делать макияж глаз;
  • увеличивается объём ресничек при сохранении их естественного вида;
  • подходит для любого стиля одежды.

Ещё один плюс разреженного эффекта в том, что при выпадении искусственных ресниц, внешний вид глаз изменяется не сильно — так как густота ресничного ряда уменьшается постепенно, поэтому проплешины незаметны.

К недостаткам разреженного наращивания ресниц можно отнести отсутствие корректировки формы глаз. Но этот эффект создан именно для увеличения густоты волосков, а не для визуального изменения пропорций.

Кому подходит

Каждый способ наращивания подстраивается под определённые природные показатели женщины — овала её лица, форму глаз, положение век. Учитывая эти параметры, подбирается эффект наращивания, который будет выделять достоинства и скрывать недостатки. Если же не обращать внимания на эти показатели, то велика вероятность вместо красивых глаз получить визуальное искажение пропорций.

Кому подойдёт разреженный эффект? Он будет к лицу любой женщине. Этот способ наращивания не меняет форму глаз, поэтому подходит всем, всего лишь делая ресницы немного гуще, пышнее, создавая впечатление нанесённого на них макияжа.

На результат не повлияет густота своих волосков, их длина или направление роста. От природы пышные ресницы станут ещё более выразительными, а редкие будут слегка увеличены в объёме. Состояние собственных ресниц также не имеет значения, так как материал используется максимально тонкий и лёгкий, поэтому даже самые слабые волосинки его выдержат и не выпадут.

Разреженный эффект лишь увеличивает густоту ресниц после наращивания. Он не создан для коррекции формы лица или глаз. Мастера при его выполнении обращают внимание только на расположение верхнего века, для выбора изгиба искусственных ресничек. Противопоказаний для выполнения разреженного эффекта нет.

Какие используются ресницы для наращивания

Как правило, материалом для создания разреженного эффекта выбирают шёлк. Он тонкий, лёгкий, поэтому не отягощает взгляд, а, наоборот, поддерживает естественность вида.

Длина ресниц при разреженном эффекте, может использоваться разная. Её комбинируют на протяжении ресничного ряда. Чаще всего искусственные волоски клеят такой же длины, как и свои натуральные. Это позволяет сохранить максимальную естественность. Но также нередко делают и увеличенную длину ресниц. Тогда получается результат, напоминающий эффект «Лучики», только с неполным наращиванием ресничного ряда. Смотрится красиво и интересно. Обычно используются волоски длиной от 7 до 12 мм.

Толщина для увеличения объёма ресниц разреженным эффектом выбирается 0,5–0,7 мм. Такие тонкие волокна сохраняют естественность взгляда.

Изгиб для разреженного эффекта подбирается индивидуально исходя из данных клиента. Для совсем прямых ресничек используют завитки B или C, которые сохраняют натуральную красоту. Несильный изгиб D обеспечивает яркость образа. Очень редко специалисты обращаются к завитку L, который создаёт более выразительный результат.

Разреженный эффект подразумевает использование лёгких искусственных ресничек, которые не причиняют каких-либо неудобств в ношении, а лишь слегка подчёркивают природную красоту. Они должны полностью повторять натуральные ресницы, добавляя им густоты.

Схема наращивания

Прежде чем делать разреженный эффект лэшмейкер договаривается с клиентом об интервале расположения искусственных ресниц. Обычно он составляет от одной до пяти родных ресничек. Всё зависит от того, какой результат планируется получить. Если нужен видимый объём, то волокна крепят через одну свою ресничку. Когда же большая густота не требуется, то допускается интервал до 5 волосинок.

Схема наращивания ресниц разреженным эффектом самая простая из всех и легко выполнимая.

  1. Определяется расстояние между приклеиваемыми ресничками.
  2. Наращивание начинается с внутреннего уголка глаза.
  3. На первую свою ресницу крепится один искусственный волосок.
  4. Следующий приклеивается через выбранный интервал.

Такой разреженный принцип крепления сохраняется до конца ресничного ряда. Промежуточные ресницы остаются незаполненными. Они хорошо гармонируют с наращёнными, если длина искусственных волосков не сильно превышает величину натуральных ресниц.

Технология выполнения

Разреженный эффект делается только классическим способом наращивания — поресничным. Объём 2D или 3D не используется.

Технология выполнения следующая.

  1. Клиента укладывают на кушетку в удобное положение.
  2. Волоски обезжириваются и хорошо прочёсываются щёточкой.
  3. На нижние реснички накладываются силиконовые патчи или специальный скотч. Это поможет избежать склеивания верхнего и нижнего ресничных рядов.
  4. Пинцетом ресницы разделяются таким образом, чтобы выделить одну для работы с нею.
  5. Искусственный волосок окунается в клеящий состав так, чтобы на его основании не осталось шарика средства.
  6. Волокно прикладывается на родную ресничку, отступая на 1–2 мм от её корня. Через пару секунд можно переходит к следующей. Подобным образом крепится материал к оставшимся волосинкам, соблюдая обговорённый интервал.
  7. После заполнения всего ресничного ряда он снова прочёсывается.
  8. При помощи пинцетов лэшмейкер проверяет промежуток между местами приклеивания волокон. Если проплешины отсутствуют, то скотч или патчи снимаются.

Процедура на этом считается оконченной. При соблюдении всех советов по уходу результат разреженного эффекта продержится 2–3 недели. А также специалисты приглашают своих клиентов на коррекцию, которая продлит срок носки искусственных ресниц ещё на две-три недели.

Уход

Чтобы наращённые ресницы держались как можно дольше необходимо следовать советам лэшмейкеров по уходу за ними. Особенных рекомендаций разреженный эффект не имеет, но общие правила существуют для всех.

  1. Контакт с водой глазам разрешён только спустя сутки после процедуры. В противном случае влага может спровоцировать отклеивание материала от родных волосков.
  2. В первые сутки после наращивания запрещено посещение бани, сауны или бассейна. Влажность и перепады температуры отрицательно скажутся на приклеенных ресничках.
  3. Механическое воздействие на глаза запрещено. Даже при умывании нужно быть предельно осторожным. Трение может привести к выпадению искусственных волокон.
  4. Сон разрешён только на боку или спине. Если женщина спит лицом в подушку, то утром на постели могут оказаться выпавшие реснички.
  5. Средства для снятия макияжа на основе масел, крема и другие жирные продукты в области глаз использовать нельзя.

Тем, кто носит линзы стоит учитывать, что из-за ежедневного применения капель и другого контакта с глазами, наращённые ресницы продержатся не больше 2 недель.

Соблюдение этих простых советов обеспечит сохранение разреженного эффекта до трёх недель.

Коррекция

Проводится на 10–14-й день после наращивания ресниц. Коррекция разреженного эффекта предполагает повторное заполнение тех мест, где искусственные волоски с течением времени выпали. Устраняются проплешины по всему ресничному ряду.

  1. Клиент ложится в удобное положение на кушетку.
  2. На нижние ресницы накладываются силиконовые патчи или клеится специальный скотч.
  3. Весь ресничный ряд прочёсывается щёточкой, выявляя пустые места.
  4. Там, где есть проплешины заново клеятся искусственные волокна.
  5. После устранения пробелов, ресничный ряд ещё раз прочёсывается.
  6. Если восстановление больше не требуется, скотч или патчи под глазами убираются.

Коррекция разреженного эффекта занимает не более получаса времени, но продлевает результат на 2–3 недели. Цена этой услуги обычно составляет 50% от первоначального наращивания.

Выполняется коррекция разреженного эффекта всего один раз. Повторно её сделать невозможно. В таком случае потребуется полное снятие материала с глаз и новое наращивание ресниц.

Отличия разреженного эффекта и «Лучики»

Во многих источниках утверждается, что эффекты — разреженный и «Лучики», являются названиями одной и той же схемы наращивания. Однако эти утверждения ошибочны, так как разница между ними есть.

В чём отличие разреженного эффекта от лучиков?

  1. Внешний вид. «Лучики» создают более яркий образ, который бросается в глаза. А после выполнения разреженного эффекта мало заметно, что с ресницами поработал лэшмейкер.
  2. Полнота заполнения ресничного ряда. «Лучики» создаются путём приклеивания материала к каждой родной волосинке. Разреженный же эффект подразумевает крепление искусственных волокон через определённый промежуток, оставляя часть собственных ресниц «пустыми». То есть «Лучики» — это полное наращивание всего ресничного ряда, а разреженный эффект — частичное.
  3. Время процедуры. «Лучики» создаются за 2–3 часа, а наращивание разреженным эффектом не более 1,5 ч.
  4. Длина искусственных ресниц. Для лучиков используют всего два показателя их величины, при условии, что к внешнему краю глаза волоски не будут увеличиваться. Разреженный эффект подразумевает использование ресничек разной длины.
  5. Количество искусственных ресниц. Так как при разреженном эффекте наращивается не весь ресничный ряд, то для его выполнения необходимо в 2–5 раз меньше материала, чем для лучиков.

Кроме того, при разреженном эффекте редко используют наращивание цветных ресниц. Обычно приклеивают чёрные или тёмно-коричневые. «Лучики» же достаточно часто выделяют цветом.

Какой из способов наращивания выбрать женщина решает самостоятельно. И разреженный эффект, и «Лучики» предназначены для увеличения объёма, при этом они оба не корректируют форму глаз. Выбор зависит от того, какой результат планируется получить — максимально естественный объём или более яркий образ.

Подведём итоги. Наращивание ресниц разреженным эффектом подходит любой женщине и не имеет противопоказаний. Создаваемый неполный объём не скроет какие-либо недостатки, не изменит форму глаз, не повлияет на общие пропорции лица. Разреженный эффект больше предназначен для создания лёгкой, натуральной пышности ресниц, при которой можно слегка увеличить их длину. Его выполнение занимает всего час-полтора, но результат сохраняется до трёх недель. А при правильном уходе и своевременно проведённой коррекции, разреженный эффект будет радовать женщину не меньше одного месяца.

Разреженный эффект наращивания ресниц

схема наращивания, уход после процедуры

Наращивание ресниц

В целях получения идеального макияжа глаз, эффект которого будет сохраняться длительное время, многие девушки прибегают к наращиванию ресниц. Подобная технология проста, безболезненна, такую услугу предлагает практически каждый салон красоты. Но в некоторых случаях приклеенные ресницы сильно отличаются по цвету, форме или длине от натуральных. В этом случае они выглядят неестественно и привлекают ненужное внимание посторонних.

Косметологи в салонах обычно владеют несколькими методиками наращивания ресниц. Решение о выборе того или иного способа остается за клиентом, специалист может лишь подсказать преимущества той или иной технологии. Если решение о наращивании принято, но есть опасения за неестественный вид ресничек после проведения процедуры, то следует прибегнуть к методу разреженного эффекта наращивания.

Особенности

Разреженный эффект наращивания ресниц называют еще «лучиками». Такой метод придает глазам дополнительную выразительность, сохраняя при этом естественный вид.

Суть разреженного наращивания заключается в том, что искусственные волоски прикрепляются не к каждой ресничке, а лишь к некоторым с определенно заданным интервалом.

Такой метод очень напоминает классику, но с достижением большего объема. Кроме того, приближенный к натуральному вид ресничек, наращенных таким способом, достигается еще и из-за разной длины прикрепляемых волосков.

Если сравнивать рассматриваемый способ с другими методиками, можно выделить ряд преимуществ первого:

  • максимальное сохранение естественности;
  • максимальная густота и объем ресниц;
  • возможность использования в повседневном макияже;
  • подходит для любой возрастной категории;
  • сохранение длительного эффекта от процедуры.

Все эти преимущества делают такую технологию наращивания наиболее популярной среди всех способов увеличения объема и длины ресниц.

Кому подходит?

Благодаря тому, что естественный вид ресниц наиболее сохраняется именно при методе разреженного наращивания, то подобный способ подойдет женщинам и девушкам любого возраста.

Если обращать внимание на исходный вид собственных ресниц, то методика особенно подойдет обладательницам тонких и коротких ресничек.

Также хорошо будут смотреться очень светлые ресницы, увеличенные таким способом. Только в этом случае следует подбирать оттенок искусственных прядок, наиболее соответствующий натуральному цвету ресниц.

Исключить такой метод увеличения объема стоит в том случае, если свои ресницы ослаблены или склонны к ломкости, так как количество искусственных прядей, прикрепляемых при этом методе, довольно велико. Наращиваемые ресницы могут создать дополнительную нагрузку и давление на уже истонченные волоски, что усугубит ситуацию.

Какие материалы используются?

Проводить процедуру наращивания должен только квалифицированный специалист в оборудованном помещении. Все материалы, используемые в процессе работы, должны быть надлежащего качества, иметь сертификаты соответствия и приобретаться у официальных поставщиков.

Осведомиться о квалификации мастера, а также о качестве применяемого при наращивании сырья необходимо до начала процедуры.

При наращивании ресниц будут использованы такие материалы и инструменты:

  • искусственные ресницы длиной 8,10 и 12 мм;
  • антибактериальный гель или спрей;
  • обезжиривающий тоник;
  • клеевая основа;
  • пинцет;
  • емкость для разведения клея.

Все материалы должны находиться в индивидуальных упаковках. Вскрывать ее мастер должен непосредственно перед началом процедуры в присутствии клиента.

Инструменты, которые будут использоваться в процессе, должны быть чистыми и предварительно обработаны ультрафиолетовыми лучами.

А непосредственно перед наращиванием мастер должен протереть их дополнительно обеззараживающим раствором.

Технология наращивания

Перед началом работы мастер должен оценить толщину, цвет, изгиб ресниц. На основании исходных данных подбираются искусственные пряди. Они должны подходить по всем параметрам к натуральным ресницам.

После того как материал для наращивания будет подобран, мастер должен очистить веки и волоски от излишков кожного жира. Делать это необходимо для наилучшего прикрепления к коже век искусственных волосков. Естественные ресницы не бывают одной и той же длины.

Технология разреженного наращивания подразумевает, что мастер должен подобрать искусственную ресницу, максимально подходящую по длине к натуральной.

Далее мастер должен придерживаться определенной схемы действий.

  1. Обсудить с клиенткой необходимую густоту ресниц. От этого будет зависеть интервал, с которым будут размещены искусственные ресницы.
  2. Выбрать более сильные ресницы и при помощи специального пинцета и клеевого состава присоединить рядом с ними искусственные волоски длиной 12 мм. Чаще всего длинные искусственные реснички располагают через каждые 6 натуральных волосков. Наклеивают длинные пряди примерно до середины века, не доходя до внутреннего уголка глаза.
  3. Затем приступают к прикреплению искусственных волосков средней длины, равной 10 мм. Прикреплять такие ресницы следует в промежутках между прядями, длина которых равна 12 мм. Заканчивать приклеивать искусственный материал средней длины необходимо, не доходя 2–3 мм до внутреннего уголка.
  4. В последнюю очередь прикрепляются самые короткие искусственные волоски длиной 8 мм. Они должны быть расположены по всей линии роста ресниц на верхнем веке.

Для того чтобы эффект от наращивания был наиболее приближен к натуральному, мастеру необходимо окунать каждую ресницу в клей ровно наполовину ее длины. А линия прикрепления искусственных ресничек должна быть максимально ровной. Также залогом красивых ресниц после всех манипуляций станет отсутствие склеенных искусственных волосков с натуральными.

Кроме того, мастер может предложить использовать реснички разной толщины. Подобная манипуляция обговаривается с каждой клиенткой индивидуально.

Также при подобном наращивании есть возможность выделить более длинные искусственные ресницы другим цветом. Здесь важно учитывать уместность такого макияжа в повседневной жизни или на работе.

    Стоит отметить, что метод разреженного наращивания достигается поресничным приклеиванием искусственных волосков. В отличие от методик, которые предполагают приклеивание целых пучков искусственных ресничек, рассматриваемый способ является трудоемким и кропотливым, поэтому требует значительных временных затрат.

    Конечно, точное время зависит от опыта и квалификации мастера. Но даже если работа будет выполняться профессионалом, на нее уйдет не менее 2 часов.

    Последующий уход

    Даже если при процедуре наращивания все правила были соблюдены, испортить достигнутый эффект может неправильный последующий уход.

    Как правило, о том, как ухаживать за наращенными ресницами, должен рассказать мастер после окончания процедуры.

    1. В течение 48 часов после процедуры нельзя подвергать ресницы воздействию осадков, палящего солнца или низких температур. Так как клеевой состав окончательно затвердевает только по истечении этого времени, преждевременное испытание неблагоприятными условиями может снизить его стойкость, и коррекция ресниц потребуется значительно раньше положенного срока.
    2. Наносить декоративную косметику и пользоваться иными средствами можно не ранее, чем через 2 часа после завершения процедуры, так как клей окончательно высохнет только по прошествии этого времени.
    3. Обладательницам жирной кожи на лице следует поддерживать ее нейтральный баланс на протяжении всего периода ношения искусственных ресниц, так как кожное сало способно отслаивать клеевой состав от кожи.
    4. Избегать умывания глаз мылом, шампунем или другими, непредназначенными для этого косметическими средствами.
    5. Не допускать трения глаз ватными дисками, спонжами или другими приспособлениями для демакияжа. Удалять косметику стоит только щадящими средствами массирующими движениями.
    6. Избегать применения косметических средств на основе спирта или масла, так как входящие в них компоненты могут отрицательно сказываться на прочности клеевого состава, используемого при наращивании.
    7. Не пытаться самостоятельно удалять искусственные ресницы. Непрофессиональные действия могут не только нанести вред натуральным ресницам, но и причинить боль. В некоторых случаях может начаться раздражение слизистой, а при занесении инфекции – и воспалительный процесс. Мастер же поможет снять ненужные пряди быстро и безболезненно.
    8. Своевременно выполнять коррекцию. Вовремя выполненная процедура поможет избежать неопрятного вида, связанного с отклеиванием части искусственных прядей.

      Применение разреженного эффекта при наращивании ресниц сделает взгляд более выразительным. Естественный вид таких ресниц поможет каждый день выглядеть безупречно. А достигнутый длительный эффект поможет сократить время на ежедневный макияж. Сохранить первоначальный вид и изгиб, созданный методом разреженного наращивания, можно, соблюдая все перечисленные требования, а также своевременно выполняя процедуру коррекции.

      Процесс наращивания ресниц с разреженным эффектом смотрите в следующем видео.

      Эффекты наращивания ресниц: красота на любой вкус

      В погоне за совершенством, многие женщины стараются подчеркнуть свои достоинства и скрыть недостатки. Для этого существует масса способов. Огромное внимание уделяется глазам, ведь именно на них обращают внимание в первую очередь. А различные эффекты наращивания ресниц, прекрасное средство для преображения глаз.

      Виды наращивания ресниц

      В настоящее время есть несколько видов наращивания ресниц:

      1. Полное – данный вид наиболее трудоёмкий, поскольку к каждой ресничке прикрепляют искусственную. Однако этот вид очень востребован, он придаёт взгляду выразительность и подходит для повседневного образа жизни.
      2. Не полное наращивание – в данном виде, ресницы приклеиваются на отдельные места, обычно по линии роста ресниц.
      3. 2D наращивание – на одну ресницу наращивают две искусственных ресницы.
      4. Объемное наращивание (ЗD наращивание) – в отличие от полного наращивания, к каждой нарощенной ресничке прикрепляется еще одна или несколько ресничек. С данным видом наращивания ресницы выглядят объемными и пушистыми.
      5. 4D наращивание – суть метода состоит в прикреплении к 1 реснице 4 искусственных с помощью клея, что делает взгляд  притягивающим и театральным.

      Основные эффекты наращивания ресниц прекрасно корректируют форму глаз и придают взгляду выразительность.

      Натуральный эффект наращивания ресниц

      Натуральный эффект наращивания ресниц – самый популярный и востребованный эффект. Он подходит даме любого возраста, выделяет и подчёркивает глаза. К тому же данный метод придаёт естественный вид. Для выполнения этой техники, берутся искусственные ресницы длиной 8-10мм, которые приклеиваются от внешнего уголка глаза к внутреннему.

      Данный вид подойдёт для повседневного применения.

      Кукольный эффект наращивания ресниц

      Кукольный эффект прекрасно подойдёт юным девушкам, собирающимся на дискотеку или на торжество. Отличительной чертой данного метода является использование очень длинных искусственных ресниц, в результате чего взгляд получается, как у куклы, отсюда и такое название. Для данного эффекта используется метод поресничного наращивания.

      Лицо получится милым и очаровательным, притягивающим внимание.

      Лисий эффект наращивания ресниц

      Как и в случае с кукольным, тут тоже используется поресничное наращивание, однако ресницы используются разной длины: короткие, средние и длинные. Данный метод прекрасно подчёркивает круглые и большие глаза, а вот девушкам с узкими глазами специалисты рекомендуют выбрать другой эффект. Для создания такого эффекта, для внутреннего уголка используются короткие ресницы, по центру – средние, у внешнего уголка – длинные ресницы. Такой эффект идеально подойдёт дамам с близко посаженными глазами и любительницам восточного макияжа.

      Беличий эффект наращивания ресниц

      Для получения беличьего эффекта используют ресницы разной длины – максимально длинные и максимально короткие. Максимальная длина составляет 12мм. В процессе наращивания, специалист начинает работу с внешней стороны глаза, отступив от уголка на 5мм. В этом месте прикрепляются самые длинные ресницы и чем ближе к внутреннему уголку глаза, тем короче ресницы. Беличий эффект придаёт взгляду глубину и выразительность.

      Разреженный эффект наращивания ресниц

      Разреженный эффект выглядит естественно, но требует от специалиста хороших умений и  усердной работы. Для этой техники берутся ресницы разной длины и прикрепляются в определённом порядке, на решённом заранее расстоянии. В итоге ресницы выглядят не только эффектно, но и густыми.

      Мультицветовой эффект наращивания ресниц

      Суть данного эффекта заключается в наращивании ресничек различных цветов. В зависимости от пожеланий клиента, наращиваются реснички одного или нескольких оттенков. Микс эффект прекрасно подходит для вечеринки или карнавала. Однако данный метод можно использовать и в повседневной жизни. Например, несколько накладных коричневых ресниц прекрасно будут смотреться на женщинах с белой кожей.

      Наращивание ресниц с эффектом подводки

      Для создания эффекта подводки, специалист во время наращивания использует чёрный клей, который и создаёт визуальный эффект прокрашивания. Также при наращивании с эффектом «лисий взгляд» создаётся видимость ресниц с эффектом подводки.

      Наращивание ресниц с эффектом бабочки

      Наращивание ресниц в данном случае производится на верхнем и нижнем веках, от внутреннего уголка глаза к внешнему. Именно дополнительное наращивание на нижних веках придает ресницам эффект бабочки. Как известно, большинство мастеров предпочитают наращивать ресницы норкой – они получаются легкими и пушистыми. Однако для эффекта бабочки стоит отдать предпочтение шёлку, именно шёлк придаст максимальное сходство с крыльями бабочки.

      Наращивание ресниц даёт отличную возможность отказаться от туши и подводки, придавая взгляду максимально выразительный эффект. И если природа не наградила натуральными пышными ресницами, на помощь всегда придут искусственные.

      Видео по теме статьи:

      https://www.youtube.com/watch?v=c5hSs3lC04I

      (PDF) Адаптивный алгоритм построения разложений разреженного полиномиального хаоса для стохастического анализа методом конечных элементов

      Адаптивный алгоритм построения разреженного полиномиального хаоса

      разложений для стохастического анализа конечных элементов

      Жеро Блатмана, b, Бруно Судрета, c

      aIFMA-LaMI, Campus des C´ezeaux, BP 265, 63175 Aubi`ere cedex, Франция

      bEDF R&D, D´epartement Mat´eriaux et M´ecanique des Composants, site des Renardi`eres, 77250 Moret- sur-Loing cedex, Франция

      cPhimeca Engineering S.A., Centre d’a aires du Z´enith, 34 rue de Sarli’eve, 63800 Cournon d’Auvergne

      Abstract

      Разложения полиномиального хаоса (PC) используются в стохастическом анализе конечных элементов для представления случайной модели

      отклика набором коэффициентов в подходящем базисе (так называемый полиномиальный хаос). Количество терминов, которые должны быть вычислены

      , резко возрастает с увеличением размера входного случайного вектора, что делает вычислительные затраты на

      классических схем решения (может быть, это навязчиво (т.е. типа Галеркина) или ненавязчивого) неприемлемо, когда детерминированная модель конечных элементов

      является дорогостоящей для оценки.

      Для решения таких проблем в документе описывается ненавязчивый метод, который создает разреженное расширение ПК.

      Предложен алгоритм на основе адаптивной регрессии для автоматического определения значимых коэффициентов

      расширения ПК. Помимо разреженности основы, экспериментальный план, используемый на каждом этапе алгоритма

      , систематически дополняется, чтобы гарантировать корректность различных задач регрессии.Точность модели ПК

      проверяется с использованием классических инструментов теории статистического обучения (например, перекрестная проверка

      с исключением по одному). Как следствие, в конечном итоге сохраняется довольно небольшое количество терминов ПК (разреженное представление),

      , которое может быть получено с меньшими вычислительными затратами по сравнению с классическим приближением полного ПК. Сходимость алгоритма

      показана на академическом примере. Затем этот метод проиллюстрирован на двух стохастических задачах с конечными элементами

      , а именно на ферме и каркасной конструкции, включающей 10 и 21 входную случайную величину,

      соответственно.

      Ключевые слова: адаптивные стохастические конечные элементы; последовательный экспериментальный план; разложение разреженного полиномиального хаоса;

      регрессия; конструктивная надежность; поверхности отклика

      Препринт отправлен в Elsevier Science 4 сентября 2009 г.

      Нежное введение в разреженные матрицы для машинного обучения

      Последнее обновление 9 августа 2019 г.

      Матрицы, которые содержат в основном нулевые значения, называются разреженными, в отличие от матриц, где большинство значений ненулевые, называются плотными.

      Большие разреженные матрицы широко распространены в целом и особенно в прикладном машинном обучении, например, в данных, содержащих счетчики, в кодировках данных, отображающих категории в счетчики, и даже в целых подполях машинного обучения, таких как обработка естественного языка.

      Представлять разреженные матрицы и работать с ними так, как если бы они были плотными, требует больших затрат вычислительных ресурсов, и значительное улучшение производительности может быть достигнуто за счет использования представлений и операций, которые специально обрабатывают разреженность матриц.

      В этом руководстве вы узнаете о разреженных матрицах, проблемах, которые они представляют, и о том, как работать с ними непосредственно в Python.

      После прохождения этого руководства вы будете знать:

      • Эти разреженные матрицы содержат в основном нулевые значения и отличаются от плотных матриц.
      • Множество областей, в которых вы, вероятно, столкнетесь с разреженными матрицами в данных, подготовке данных и подобластях машинного обучения.
      • Что существует множество эффективных способов хранения разреженных матриц и работы с ними, а SciPy предоставляет реализации, которые вы можете использовать напрямую.

      Начните свой проект с моей новой книги «Линейная алгебра для машинного обучения», включая пошаговые руководства и файлы исходного кода Python для всех примеров.

      Приступим.

      Нежное введение в разреженные матрицы для машинного обучения
      Фотография CAJC: в Скалистых горах, некоторые права защищены.

      Обзор учебного пособия

      Это руководство разделено на 5 частей; их:

      • Разреженная матрица
      • Проблемы с разреженностью
      • Разреженные матрицы в машинном обучении
      • Работа с разреженными матрицами
      • Разреженные матрицы в Python

      Нужна помощь с линейной алгеброй для машинного обучения?

      Пройдите бесплатный 7-дневный ускоренный курс по электронной почте (с образцом кода).

      Нажмите, чтобы зарегистрироваться, а также получите бесплатную электронную версию курса в формате PDF.

      Загрузите БЕСПЛАТНЫЙ мини-курс

      Разреженная матрица

      Разреженная матрица — это матрица, состоящая в основном из нулевых значений.

      Разреженные матрицы отличаются от матриц с в основном ненулевыми значениями, которые называются плотными матрицами.

      Матрица является разреженной, если многие ее коэффициенты равны нулю. Интерес к разреженности возникает потому, что его использование может привести к огромной вычислительной экономии, а также потому, что многие проблемы с большими матрицами, которые возникают на практике, являются разреженными.

      — страница 1, Прямые методы для разреженных матриц, второе издание, 2017 г.

      Разреженность матрицы можно количественно оценить с помощью показателя, который представляет собой количество нулевых значений в матрице, деленное на общее количество элементов в матрице.

      разреженность = подсчет нулевых элементов / всего элементов

      разреженность = подсчет нулевых элементов / всего элементов

      Ниже приведен пример небольшой разреженной матрицы 3 x 6.

      1, 0, 0, 1, 0, 0 А = (0, 0, 2, 0, 0, 1) 0, 0, 0, 2, 0, 0

      1, 0, 0, 1, 0, 0

      A = (0, 0, 2, 0, 0, 1)

      0, 0, 0, 2, 0, 0

      В примере 13 нулевых значений 18 элементов в матрице, что дает этой матрице показатель разреженности 0,722 или около 72%.

      Проблемы с разреженностью

      Разреженные матрицы могут вызвать проблемы, связанные с пространственной и временной сложностью.

      Космическая сложность

      Очень большие матрицы требуют много памяти, а некоторые очень большие матрицы, с которыми мы хотим работать, являются разреженными.

      На практике самые большие матрицы разрежены — почти все записи нули.

      — стр. 465, Введение в линейную алгебру, пятое издание, 2016 г.

      Примером очень большой матрицы, которая слишком велика для хранения в памяти, является матрица ссылок, которая показывает ссылки с одного веб-сайта на другой.

      Примером меньшей разреженной матрицы может быть матрица встречаемости слова или термина для слов в одной книге по сравнению со всеми известными словами в английском языке.

      В обоих случаях содержащаяся матрица является разреженной и содержит намного больше нулевых значений, чем значений данных. Проблема с представлением этих разреженных матриц как плотных матриц заключается в том, что требуется память, и ее необходимо выделять для каждого 32-битного или даже 64-битного нулевого значения в матрице.

      Это явно пустая трата ресурсов памяти, поскольку эти нулевые значения не содержат никакой информации.

      Сложность времени

      Предполагая, что очень большая разреженная матрица может уместиться в памяти, мы захотим выполнить операции с этой матрицей.3) арифметические операции, связанные с решением системы уравнений или обращением матрицы, включают нулевые операнды.

      — стр. 75, Численные рецепты: искусство научных вычислений, третье издание, 2007 г.

      Это проблема повышенной временной сложности матричных операций, которая увеличивается с размером матрицы.

      Эта проблема усугубляется, если учесть, что даже тривиальные методы машинного обучения могут потребовать множества операций с каждой строкой, столбцом или даже по всей матрице, что приводит к значительно большему времени выполнения.

      Разреженные матрицы в машинном обучении

      Редкие матрицы часто используются в прикладном машинном обучении.

      В этом разделе мы рассмотрим несколько распространенных примеров, чтобы побудить вас осознавать проблемы разреженности.

      Данные

      Разреженные матрицы возникают в некоторых конкретных типах данных, в первую очередь в наблюдениях, которые регистрируют возникновение или количество действий.

      Три примера включают:

      • Смотрел ли пользователь фильм в каталоге фильмов.
      • Независимо от того, приобрел ли пользователь продукт в каталоге продуктов.
      • Подсчет количества прослушиваний песни в каталоге песен.

      Подготовка данных

      Разреженные матрицы появляются в схемах кодирования, используемых при подготовке данных.

      Три типичных примера:

      • Одноразовое кодирование, используемое для представления категориальных данных в виде разреженных двоичных векторов.
      • Кодирование подсчета, используемое для представления частоты слов в словаре для документа
      • Кодировка
      • TF-IDF, используемая для представления нормализованных оценок частотности слов в словаре.

      Направления обучения

      В некоторых областях машинного обучения необходимо разработать специализированные методы для непосредственного решения проблемы разреженности, поскольку входные данные почти всегда разрежены.

      Три примера включают:

      • Обработка естественного языка для работы с текстовыми документами.
      • Рекомендательные системы для работы с использованием товаров в каталоге.
      • Компьютерное зрение при работе с изображениями, содержащими много черных пикселей.

      Если в языковой модели 100 000 слов, то вектор признаков имеет длину 100 000, но для короткого сообщения электронной почты почти все функции будут иметь нулевой счет.

      — стр. 866, Искусственный интеллект: современный подход, третье издание, 2009 г.

      Работа с разреженными матрицами

      Решением для представления и работы с разреженными матрицами является использование альтернативной структуры данных для представления разреженных данных.

      Нулевые значения можно игнорировать, и только данные или ненулевые значения в разреженной матрице должны быть сохранены или обработаны.

      Существует несколько структур данных, которые можно использовать для эффективного построения разреженной матрицы; Ниже приведены три распространенных примера.

      • Словарь ключей . Словарь используется там, где индекс строки и столбца сопоставляется со значением.
      • Список списков . Каждая строка матрицы хранится в виде списка, причем каждый подсписок содержит индекс столбца и значение.
      • Список координат . Список кортежей сохраняется с каждым кортежем, содержащим индекс строки, индекс столбца и значение.

      Существуют также структуры данных, которые больше подходят для выполнения эффективных операций; Ниже перечислены два наиболее часто используемых примера.

      • Сжатая разреженная строка . Разреженная матрица представлена ​​с использованием трех одномерных массивов для ненулевых значений, экстентов строк и индексов столбцов.
      • Сжатая разреженная колонна . То же, что и метод сжатой разреженной строки, за исключением того, что индексы столбцов сжимаются и считываются сначала перед индексами строк.

      Сжатая разреженная строка, также называемая сокращенно CSR, часто используется для представления разреженных матриц в машинном обучении с учетом поддерживаемого им эффективного доступа и умножения матриц.

      Разреженные матрицы в Python

      SciPy предоставляет инструменты для создания разреженных матриц с использованием нескольких структур данных, а также инструменты для преобразования плотной матрицы в разреженную матрицу.

      Многие функции линейной алгебры NumPy и SciPy, которые работают с массивами NumPy, могут прозрачно работать с разреженными массивами SciPy. Кроме того, библиотеки машинного обучения, использующие структуры данных NumPy, также могут прозрачно работать с разреженными массивами SciPy, такими как scikit-learn для общего машинного обучения и Keras для глубокого обучения.

      Плотная матрица, хранящаяся в массиве NumPy, может быть преобразована в разреженную матрицу с использованием представления CSR путем вызова функции csr_matrix () .

      В приведенном ниже примере мы определяем разреженную матрицу 3 x 6 как плотный массив, преобразуем ее в разреженное представление CSR, а затем преобразуем обратно в плотный массив, вызвав функцию todense () .

      # от плотного до разреженного из массива импорта numpy из scipy.sparse import csr_matrix # создать плотную матрицу A = массив ([[1, 0, 0, 1, 0, 0], [0, 0, 2, 0, 0, 1], [0, 0, 0, 2, 0, 0]]) печать (A) # преобразовать в разреженную матрицу (метод CSR) S = csr_matrix (A) печать (S) # восстановить плотную матрицу B = S.todense () печать (B)

      # плотный до разреженного

      из массива импорта numpy

      из scipy.sparse import csr_matrix

      # создать плотную матрицу

      A = array ([[1, 0, 0, 1, 0, 0], [0, 0, 2, 0, 0, 1], [0, 0, 0, 2, 0, 0]])

      print (A)

      # преобразовать в разреженную матрицу (метод CSR)

      S = csr_matrix (A )

      print (S)

      # восстановить плотную матрицу

      B = S.todense ()

      печать (B)

      При выполнении примера сначала печатается определенный плотный массив, затем представление CSR, а затем реконструированная плотная матрица.

      [[1 0 0 1 0 0] [0 0 2 0 0 1] [0 0 0 2 0 0]] (0, 0) 1 (0, 3) 1 (1, 2) 2 (1, 5) 1 (2, 3) 2 [[1 0 0 1 0 0] [0 0 2 0 0 1] [0 0 0 2 0 0]]

      [[1 0 0 1 0 0]

      [0 0 2 0 0 1]

      [0 0 0 2 0 0]]

      (0, 0) 1

      (0, 3) 1

      (1, 2) 2

      (1, 5) 1

      (2, 3) 2

      [[1 0 0 1 0 0]

      [0 0 2 0 0 1]

      [ 0 0 0 2 0 0]]

      NumPy не предоставляет функции для вычисления разреженности матрицы.

      Тем не менее, мы можем легко вычислить его, сначала найдя плотность матрицы и вычтя ее из единицы. Количество ненулевых элементов в массиве NumPy может быть задано функцией count_nonzero () , а общее количество элементов в массиве может быть задано свойством размера массива. Поэтому разреженность массива можно рассчитать как

      .

      sparsity = 1.0 — count_nonzero (A) / A.size

      разреженность = 1.0 — count_nonzero (A) / A. размер

      Пример ниже демонстрирует, как вычислить разреженность массива.

      # вычислить разреженность из массива импорта numpy из numpy import count_nonzero # создать плотную матрицу A = массив ([[1, 0, 0, 1, 0, 0], [0, 0, 2, 0, 0, 1], [0, 0, 0, 2, 0, 0]]) печать (A) # вычислить разреженность sparsity = 1.0 — count_nonzero (A) / A.size печать (разреженность)

      # вычислить разреженность

      из массива импорта numpy

      из массива импорта numpy count_nonzero

      # создать плотную матрицу

      A = array ([[1, 0, 0, 1, 0, 0], [0, 0, 2 , 0, 0, 1], [0, 0, 0, 2, 0, 0]])

      print (A)

      # вычислить разреженность

      sparsity = 1.0 — count_nonzero (A) / A.size

      print (sparsity)

      При выполнении примера сначала печатается определенная разреженная матрица, а затем разреженная матрица.

      [[1 0 0 1 0 0] [0 0 2 0 0 1] [0 0 0 2 0 0]] 0,7222222222222222

      [[1 0 0 1 0 0]

      [0 0 2 0 0 1]

      [0 0 0 2 0 0]]

      0,7222222222222222

      Расширения

      В этом разделе перечислены некоторые идеи по расширению учебника, которые вы, возможно, захотите изучить.

      • Разработайте свои собственные примеры для преобразования плотного массива в разреженный и вычисления разреженности.
      • Разработайте пример для каждого метода представления разреженной матрицы, поддерживаемого SciPy.
      • Выберите один метод разреженного представления и реализуйте его самостоятельно с нуля.

      Если вы изучите какое-либо из этих расширений, я хотел бы знать.

      Дополнительная литература

      Этот раздел предоставляет дополнительные ресурсы по теме, если вы хотите углубиться.

      Книги

      API

      Статьи

      Сводка

      В этом руководстве вы узнали о разреженных матрицах, проблемах, которые они представляют, и о том, как работать с ними непосредственно в Python.

      В частности, вы выучили:

      • Эти разреженные матрицы содержат в основном нулевые значения и отличаются от плотных матриц.
      • Множество областей, в которых вы, вероятно, столкнетесь с разреженными матрицами в данных, подготовке данных и подобластях машинного обучения.
      • Что существует множество эффективных способов хранения разреженных матриц и работы с ними, а SciPy предоставляет реализации, которые вы можете использовать напрямую.

      Есть вопросы?
      Задайте свои вопросы в комментариях ниже, и я постараюсь ответить.

      Изучите линейную алгебру для машинного обучения!

      Развить рабочее понимание линейной алгебры

      … путем написания строк кода на Python

      Узнайте, как это сделать в моей новой электронной книге:
      Линейная алгебра для машинного обучения

      Он предоставляет руководств для самообучения по таким темам, как:
      Векторные нормы, матричное умножение, тензоры, собственное разложение, SVD, PCA и многое другое…

      Наконец-то разобраться в математике данных

      Пропустить академики. Только результаты.

      Посмотрите, что внутри

      Работа с разреженными наборами данных в pandas и sklearn | автор: Дафни Сидиропулу Велиду

      Набор данных

      Мы будем использовать общедоступный набор данных MovieLens 100K , доступный здесь. Учебный файл содержит 100 000 оценок, сделанных 943 пользователями по 1682 пунктам. В рамках этого анализа мы проигнорируем столбец отметки времени .

      Давайте загрузим данные во фрейм данных pandas.

      Одноразовое кодирование

      Предполагая, что мы хотим преобразовать этот набор данных в формат, показанный в разделе выше, мы должны однократно кодировать столбцы user_id и item_id . Для преобразования мы будем использовать функцию get_dummies pandas, которая преобразует категориальные переменные в индикаторные переменные.

      Перед тем, как применить преобразование, давайте проверим использование памяти нашим исходным фреймом данных. Для этого мы будем использовать функцию memory_usage pandas.

       Использование памяти кадром данных составляет 2,4 МБ 

      Теперь давайте применим преобразование и проверим использование памяти преобразованным кадром данных.

      После однократного кодирования мы создали один двоичный столбец для каждого пользователя и один двоичный столбец для каждого элемента. Итак, размер нового фрейма данных составляет 100,000 * 2,626, включая целевой столбец.

       (100000, 2626) Использование памяти 263,3 МБ 

      Мы видим, что использование памяти преобразованным фреймом данных значительно больше по сравнению с исходным.Это ожидается, поскольку мы увеличили количество столбцов фрейма данных. Тем не менее, большинство элементов в новом фрейме данных — нули.

      Совет 1. Используйте разреженные структуры pandas для хранения разреженных данных

      Pandas Sparse Structures

      Pandas предоставляет структуры данных для эффективного хранения разреженных данных. В этих структурах нулевые значения (или любое другое указанное значение) фактически не хранятся в массиве.

      Сохранение только ненулевых значений и их позиций — распространенный метод хранения разреженных наборов данных.

      Мы можем использовать эти структуры, чтобы уменьшить использование памяти нашим набором данных. Вы можете думать об этом как о способе «сжатия» фрейма данных.

      В нашем примере мы преобразуем столбцы с горячим кодированием в SparseArray s , которые представляют собой одномерные массивы, в которых хранятся только ненулевые значения.

       рейтинг int64 
      user_id_1 Sparse [uint8, 0]
      user_id_2 Sparse [uint8, 0]
      user_id_3 Sparse [uint8, 0]
      user_id_4 Sparse [uint8, 0]
      ...
      item_id_1678 Sparse [uint8, 0]
      item_id_1679 Sparse [uint8, 0]
      item_id_1680 Sparse [uint8, 0]
      item_id_1681 Sparse [uint8, 0]
      item_id_1682 Sparse [uint8, 0]
      Длина объекта: 268 использование составляет 1,8 МБ

      Если мы проверим dtypes нового фрейма данных, мы увидим, что преобразованные столбцы теперь имеют тип Sparse [uint8, 0] . Это означает, что нулевые значения не сохраняются, а ненулевые значения сохраняются как uint8 .Dtype ненулевых элементов можно установить при преобразовании в SparseArray .

      Далее мы видим, что нам удалось значительно уменьшить использование памяти нашим фреймом данных.

      python — Делает ли использование разреженных матриц алгоритм медленнее или быстрее в Sklearn?

      Зависит от ваших данных

      Потребление памяти.

      Если ваши данные плотные, для плотного представления требуется d * sizeof (double) байт для ваших данных (т.е. обычно d * 8 байт).Для разреженного представления обычно требуется sparsity * d * (sizeof (int) + sizeof (double)) . В зависимости от вашего языка программирования и качества кода, оно также может быть на намного больше из-за накладных расходов на управление памятью. Типичная реализация Java добавляет 8 байтов служебных данных и округляется до 8 байтов; поэтому разреженные векторы могут легко использовать 16 + разреженность * d * 24 байт. тогда.

      Если ваша разреженность равна 1, это означает, что разреженное представление требует на 50% больше памяти .Я предполагаю, что на практике компромисс памяти будет где-то около 50% разреженности; и если ваша реализация не оптимизирована тщательно, возможно, даже на 30%, поэтому 1 из 3 значений должно быть нулем.

      Потребление памяти обычно является ключевой проблемой. Чем больше памяти вы используете, тем больше ошибок страниц и пропусков кеша будет у вашего ЦП, что может иметь большое влияние на производительность (вот почему, например, BLAS выполняет большое матричное умножение в размерах блоков, оптимизированных для ваших кешей ЦП).

      Оптимизация и SIMD.

      Плотный векторный код (например, BLAS) обычно намного лучше оптимизируется, чем разреженные операции. В частности, инструкции ЦП SIMD (одна инструкция, несколько данных) обычно работают только с плотными данными .

      Произвольный доступ.

      Для многих алгоритмов может потребоваться случайных обращений к векторам. Если ваши данные представлены как массив double [] , произвольный доступ будет O (1) . Если ваши данные представляют собой разреженный вектор , произвольный доступ обычно составляет O (разреженность * d) , т.е.е. вам нужно будет просканировать вектор, чтобы проверить, присутствует ли значение. Таким образом, может быть полезно транспонировать матрицу для некоторых операций и работать с разреженными столбцами вместо разреженных строк.

      С другой стороны, некоторые алгоритмы могут извлечь из этого выгоду. Но во многих реализациях такие оптимизации встроены, и они позаботятся об этом автоматически. Иногда у вас также есть разные варианты выбора. Например, APRIORI работает со строками и, следовательно, будет хорошо работать с данными с разреженными строками.Eclat, с другой стороны, представляет собой алгоритм для решения той же проблемы, но он сначала преобразует все данные в форму с разреженными строками, а затем даже вычисляет различия в столбцах для дальнейшей оптимизации.

      Сложность кода.

      Код для обработки разреженных данных обычно намного сложнее. В частности, он не может легко использовать SSE и аналогичные быстрые инструкции ЦП. Это одна из причин, почему умножение разреженных матриц выполняется намного медленнее, чем операции с плотными данными — оптимизировать эти операции, не зная определенных характеристик ваших данных, на удивление сложно.:-(

      Редкие и плотные размеры

      Большинство наборов данных многомерных баз данных имеют две характеристики:

      • Данные распределяются неравномерно и неравномерно.

      • Данные не существуют для большинства комбинаций элементов. Например, не все продукты могут продаваться во всех регионах страны.

      Essbase максимизирует производительность, разделив стандартные размеры приложения на два типа: плотные измерения и разреженные измерения. Это разделение позволяет Essbase справляться с данными, которые не распределяются плавно, без потери преимуществ матричного доступа к данным. Essbase ускоряет извлечение данных, сводя к минимуму требования к памяти и дискам.

      Большинство многомерных баз данных по своей природе разрежены; им не хватает значений данных для большинства комбинаций элементов.Редкое измерение — это измерение с низким процентом заполненных доступных позиций данных.

      Например, схема базы данных Sample.Basic на рис. 2-4 включает измерения «Год», «Продукт», «Рынок», «Показатели» и «Сценарий». Product представляет единицы продукта, Market представляет географические регионы, в которых продаются продукты, а Measures представляет данные счетов. Поскольку не каждый продукт продается на каждом рынке, рынок и продукт выбраны как разреженные.

      Многомерные базы данных также содержат плотные измерения. Плотное измерение имеет высокую вероятность того, что одна или несколько ячеек заняты в каждой комбинации измерений. Например, в базе данных Sample.Basic учетные данные существуют почти для всех продуктов на всех рынках, поэтому в качестве плотного измерения выбрано «Измерение». Год и Сценарий также выбраны как плотные измерения. Год представляет время в месяцах, а Сценарий показывает, являются ли значения счетов бюджетными или фактическими.

      Caffeinated, Intro Date, Ounces, Pkg Type и Population являются измерениями атрибутов. См. Работа с атрибутами.

      Когда база данных Essbase хранится на диске, декартово произведение плотных комбинаций элементов формирует единицы хранения, называемые блоками, и блок записывается на диск для каждой разреженной комбинации элементов в базе данных.

      Рисунок 2-4 Пример.Базовая схема базы данных



      Вычисление с разреженной матрицей — обзор

      1.8 Структура книги

      Глава 2, Параллельные вычисления данных, знакомит с параллелизмом данных и программированием CUDA C. В этой главе предполагается, что читатель уже имел опыт программирования на языке C. Сначала он представляет CUDA C как простое небольшое расширение для C, которое поддерживает гетерогенные совместные вычисления CPU / GPU и широко используемую модель параллельного программирования для одной программы с множественными данными (SPMD).Затем он охватывает мыслительный процесс, связанный с (1) идентификацией части прикладных программ, подлежащих распараллеливанию, (2) выделением данных, которые будут использоваться распараллеленным кодом, с использованием функции API для выделения памяти на параллельном вычислительном устройстве, (3) ) с использованием функции API для передачи данных на параллельное вычислительное устройство, (4) разработка функции ядра, которая будет выполняться потоками в параллельной части, (5) запуск функции ядра для выполнения параллельными потоками и (6) в конечном итоге передача данных обратно в хост-процессор с помощью вызова функции API.

      Хотя цель главы 2, Параллельные вычисления данных, состоит в том, чтобы научить достаточному количеству концепций модели программирования CUDA C, чтобы студенты могли написать простую параллельную программу CUDA C, на самом деле она охватывает несколько базовых навыков, необходимых для разработки параллельного приложения на основе на любой модели параллельного программирования. Мы используем текущий пример векторного сложения, чтобы проиллюстрировать эти концепции. В более поздней части книги мы также сравниваем CUDA с другими моделями параллельного программирования, включая OpenMP, OpenACC и OpenCL.

      Глава 3, Масштабируемое параллельное выполнение, представляет более подробную информацию о модели параллельного выполнения CUDA. Он дает достаточно информации о создании, организации, привязке ресурсов, привязке данных и планировании потоков, чтобы позволить читателю реализовать сложные вычисления с использованием CUDA C и оценить поведение производительности своего кода CUDA.

      Глава 4, Память и расположение данных, посвящена специальной памяти, которая может использоваться для хранения переменных CUDA для управления доставкой данных и повышения скорости выполнения программы.Мы представляем функции языка CUDA, которые выделяют и используют эти воспоминания. Надлежащее использование этой памяти может значительно улучшить пропускную способность доступа к данным и помочь уменьшить перегрузку трафика в системе памяти.

      Глава 5, Соображения производительности, представляет несколько важных соображений производительности в текущем оборудовании CUDA. В частности, он дает более подробную информацию о желаемых шаблонах выполнения потоков, доступе к данным в памяти и распределении ресурсов. Эти детали образуют концептуальную основу, позволяющую программистам рассуждать о последствиях своих решений по организации вычислений и данных.

      Глава 6, Численные соображения, знакомит с концепциями формата чисел с плавающей запятой IEEE-754, точности и точности. Это показывает, почему разные схемы параллельного выполнения могут приводить к разным выходным значениям. Он также учит концепции числовой устойчивости и практическим методам поддержания числовой устойчивости в параллельных алгоритмах.

      Главы 7, Параллельные шаблоны: свертка, Глава 8, Параллельные шаблоны: сумма префиксов, Глава 9, Параллельные шаблоны — параллельное вычисление гистограммы, Глава 10, Параллельные шаблоны: вычисление разреженной матрицы, Глава 11, Параллельные шаблоны: сортировка слиянием, Глава 12 Параллельные шаблоны: поиск по графу представляют шесть важных шаблонов параллельных вычислений, которые дают читателям больше информации о методах параллельного программирования и механизмах параллельного выполнения.Глава 7, Параллельные шаблоны: свертка, представляет свертку и шаблон, часто используемые шаблоны параллельных вычислений, которые требуют тщательного управления локальностью доступа к данным. Мы также используем этот шаблон для введения постоянной памяти и кэширования в современных графических процессорах. Глава 8, Параллельные шаблоны: сумма префиксов, представляет дерево сокращения и сумму префиксов, или сканирование, важный шаблон параллельных вычислений, который преобразует последовательные вычисления в параллельные вычисления. Мы также используем этот шаблон, чтобы представить концепцию эффективности работы в параллельных алгоритмах.Глава 9, Параллельные шаблоны — параллельное вычисление гистограммы, посвящена гистограмме, шаблону, широко используемому при распознавании образов в больших наборах данных. Мы также рассмотрим операцию слияния — широко используемый шаблон в стратегиях разделения работы по принципу «разделяй и работай». Глава 10, Параллельные шаблоны: вычисление разреженных матриц, представляет вычисление разреженных матриц, шаблон, используемый для обработки очень больших наборов данных. Эта глава знакомит читателя с концепциями переупорядочения данных для более эффективного параллельного доступа: сжатия данных, заполнения, сортировки, транспонирования и регуляризации.Глава 11, Параллельные шаблоны: сортировка слиянием, знакомит с сортировкой слиянием, а также динамической идентификацией и организацией входных данных. Глава 12, Параллельные шаблоны: поиск на графах, знакомит с алгоритмами графов и тем, как можно эффективно реализовать поиск на графах при программировании на GPU.

      Хотя эти главы основаны на CUDA, они помогают читателям создать основу для параллельного программирования в целом. Мы считаем, что люди понимают лучше всего, когда учатся на конкретных примерах. То есть сначала мы должны изучить концепции в контексте конкретной модели программирования, которая дает нам прочную основу, позволяющую применять наши знания к другим моделям программирования.При этом мы можем опираться на наш конкретный опыт модели CUDA. Углубленный опыт работы с моделью CUDA также позволяет нам достичь зрелости, что поможет нам изучить концепции, которые могут даже не иметь отношения к модели CUDA.

      Глава 13, Динамический параллелизм CUDA, описывает динамический параллелизм. Это способность графического процессора динамически создавать работу для себя на основе данных или структуры программы, а не ждать, пока процессор запустит исключительно ядра.

      Главы 14, Пример использования — не декартово МРТ, Глава 15, Пример приложения — молекулярная визуализация и анализ, Глава 16, Пример приложения — машинное обучение, представляют собой тематические исследования трех реальных приложений, которые проводят читателей через продуманный процесс распараллеливания и оптимизации своих приложений для значительного ускорения.Для каждого приложения мы начинаем с определения альтернативных способов формулирования базовой структуры параллельного выполнения, а затем рассуждаем о преимуществах и недостатках каждой альтернативы. Затем мы проходим этапы преобразования кода, необходимые для достижения высокой производительности. Эти три главы помогают читателям собрать воедино все материалы из предыдущих глав и подготовиться к собственным проектам разработки приложений. Глава 14, Пример использования — не декартова МРТ, описывает реконструкцию не декартовой МРТ и то, как нерегулярные данные влияют на программу.Глава 15, Пример применения — молекулярная визуализация и анализ, посвящена молекулярной визуализации и анализу. Глава 16, Пример применения — машинное обучение, посвящена глубокому обучению, которое становится чрезвычайно важной областью для вычислений на GPU. Мы предоставляем введение и оставляем более подробное обсуждение другим источникам.

      Глава 17, Параллельное программирование и вычислительное мышление, знакомит с вычислительным мышлением. Это достигается путем раскрытия концепции организации вычислительных задач программы таким образом, чтобы их можно было выполнять параллельно.Мы начнем с обсуждения трансляционного процесса организации абстрактных научных концепций в вычислительные задачи, который является важным первым шагом в создании качественного прикладного программного обеспечения, последовательного или параллельного. Затем обсуждаются структуры параллельных алгоритмов и их влияние на производительность приложения, что основано на опыте настройки производительности с помощью CUDA. Хотя мы не будем вдаваться в подробности этих альтернативных стилей параллельного программирования, мы ожидаем, что читатели смогут научиться программировать в любом из них, опираясь на основы, которые они приобретут в этой книге.Мы также представляем тематическое исследование высокого уровня, чтобы показать возможности, которые можно увидеть с помощью творческого вычислительного мышления.

      Глава 18, Программирование гетерогенного вычислительного кластера, описывает программирование CUDA в гетерогенных кластерах, где каждый вычислительный узел состоит из ЦП и ГП. Мы обсуждаем использование MPI вместе с CUDA для интеграции как межузловых вычислений, так и внутриузловых вычислений, а также связанные с этим проблемы и методы связи.

      Глава 19, Параллельное программирование с OpenACC, описывает параллельное программирование с OpenACC.OpenACC — это основанный на директивах подход к программированию высокого уровня, который позволяет программисту идентифицировать и указывать области кода, которые впоследствии могут быть распараллелены компилятором и / или другими инструментами. OpenACC — это простой способ для параллельного программиста начать работу.

      Глава 20, Подробнее о вычислениях на CUDA и GPU и глава 21, Заключение и перспективы, предлагает заключительные замечания и перспективы на будущее массового параллельного программирования. Сначала мы пересматриваем наши цели и резюмируем, как главы сочетаются друг с другом, чтобы помочь в достижении целей.Затем мы представляем краткий обзор основных тенденций в архитектуре процессоров с массовым параллелизмом и того, как эти тенденции, вероятно, повлияют на параллельное программирование в будущем. В заключение мы предсказываем, что эти быстрые достижения в области массовых параллельных вычислений сделают их одной из самых захватывающих областей в ближайшее десятилетие.

      Структура классификации для использования разреженных многовариантных временных характеристик с приложением к обнаружению побочных эффектов лекарственных препаратов в медицинских записях | BMC Medical Informatics and Decision Making

      Обзор

      Наша гипотеза состоит в том, что редкие и неравномерно выбранные переменные характеристик из EHR могут служить надежными предикторами ADE.Более конкретно, учитывая набор данных EHR, представленный в виде неравномерно отобранных и разреженных многовариантных признаков, наша цель — вывести модель классификации, которая способна правильно предсказать наличие ADE для ранее невидимой медицинской карты.

      Как показано на рис. 1, предлагаемая нами структура состоит из следующих трех фаз :

      • Фаза A: каждый признак в обучающем наборе сначала преобразуется в представление дискретной символьной последовательности.

        Рис. 1

        Каркас. Графическое представление структуры преобразования

      • Фаза B: набор подпоследовательностей-кандидатов генерируется из дискретизированных признаков, которые затем оцениваются на основе их отличительной от класса мощности (обозначается как полезность ), и, наконец, набор подпоследовательностей с наивысшей полезностью, называемый s-shapelets , создается.Важный компонент этого этапа касается способа обработки пустых записей данных, то есть записей с пустыми последовательностями. С этой целью мы предлагаем три стратегии для обработки и использования функций пустых последовательностей.

      • Фаза C: с использованием s-shapelets, извлеченных из обучающего набора, каждый многомерный объект данных (обучающего и тестового наборов) преобразуется в объект с действительным знаком.

      Определения и формулировка проблемы

      Теперь мы дадим некоторые основные определения и формулировку рассматриваемой проблемы.

      Определение 1

      Временной ряд S = { s 1 ,…, s d } — это упорядоченный набор реальных значений d , где каждое \ (s_ {k} \ in \ mathbb {R} \), причем | S | = d .

      Задача классификации включает набор функций данных, где каждая характеристика представлена ​​временным рядом.Обозначим такие признаки многовариантными признаками .

      Определение 2

      Пространство многовариантных объектов \ (\ mathcal {A} = \ {A_ {1}, \ ldots, A_ {m} \} \) представляет собой набор из м. многовариантных объектов, где каждый \ (A_ {j} \ in \ mathcal {A} \) — это временной ряд.

      Используя это многомерное пространство признаков \ (\ mathcal {A} \), мы можем определить многовариантный объект \ (O \ in \ mathcal {A} \) как экземпляр этого пространства признаков.Более того, учитывая набор предопределенных меток классов \ (\ mathcal {Y} = \ {y_ {1}, \ ldots, y _ {\ sigma} \} \), мы можем определить совокупность помеченных многовариантных объектов в этом пространстве. Из-за конкретной задачи прогнозирования в экспериментах учитываются только двоичные метки, σ = 2. Однако предлагаемая стратегия обрабатывает несколько меток, то есть σ > 2 без модификации.

      Определение 3

      Учитывая многомерное пространство признаков \ (\ mathcal {A} \) и набор предопределенных меток классов \ (\ mathcal {Y} \), юниверс помеченных многовариантных объектов определяется как набор кортежи \ (\ mathcal {O} = \ {(O_ {i}, y_ {i}) ~ | ~ O_ {i} \ in \ mathcal {A}, y_ {i} \ in \ mathcal {Y} \} \), где y i — метка класса, присвоенная объекту O i , \ (\ forall (O_ {i}, y_ {i}) \ in \ mathcal {O} \), причем i ∈ [1, n ].

      В типичной настройке классификации нам дается набор обучающих объектов, где каждый объект связан с меткой класса, называемый обучающим набором . В нашем случае мы используем многовариантный обучающий набор , обозначенный как \ (\ mathcal {L} \), который просто взят из нашей вселенной помеченных многовариантных объектов \ (\ mathcal {O} \). Другими словами, \ (\ mathcal {L} \ substeq \ mathcal {O} \).

      Наша задача — изучить функцию классификации f для отображения объектов в многомерном обучающем наборе \ (\ mathcal {L} \), определенном как экземпляры многомерного пространства признаков \ (\ mathcal {A } \) к набору меток классов \ (\ mathcal {Y} \).Другими словами, мы хотим изучить отображение \ (f: \ mathcal {A} \ rightarrow \ mathcal {Y} \), такое, что для каждого \ (O_ {i} \ in \ mathcal {L} \)

      $$ f (O_ {i}) = \ hat {y} _ {i} \ in \ mathcal {Y} \, \ forall i \ in \ {1, \ dots, n \} \, $$

      где \ (\ hat {y} _ {i} \) обозначает метку предсказанного класса для объекта O i .

      Используя приведенные выше определения, проблема, изучаемая в данной статье, определяется следующим образом:

      Задача 1

      Учитывая совокупность помеченных многовариантных объектов данных \ (\ mathcal {O} \), определенных в многомерном пространстве признаков \ (\ mathcal {A} \), многовариантный обучающий набор \ (\ mathcal {L } \) и функции потерь Δ , цель многопараметрической классификации объектов состоит в том, чтобы изучить функцию отображения \ (f: \ mathcal {A} \ rightarrow \ mathcal {Y} \) с помощью \ (\ mathcal {L} \), так что ошибка классификации (невидимых) помеченных объектов данных, взятых из юниверса \ (\ mathcal {O} \), сводится к минимуму.{\ prime}) = \ left \ {\ begin {array} {ll} 0, & \ text {if} y = \ hat {y} \\ 1, & \ text {в противном случае} \ end {array} \ right . $$

      В следующих трех подразделах мы подробно описываем каждый из трех этапов предлагаемой структуры.

      Этап A: Дискретизация многовариантных признаков

      Целью первого этапа является дискретизация пространства многовариантных признаков \ (\ mathcal {A} \), в результате чего создается новое пространство признаков, где значения признаков соответствуют символические последовательности.Мы обозначаем это целевое пространство \ (\ mathcal {\ hat {A}} \) и называем его многомерным пространством символьных признаков . Процесс дискретизации состоит из четырех этапов: (1) нормализация, (2) обобщение, (3) символическое представление и (4) калибровка по алфавиту. Поскольку многовариантные признаки практически реализуются как переменные временного ряда, мы используем стандартные методы нормализации, суммирования и символического представления временных рядов для следующих шагов. {\ frac { d} {w} i} s_ {j} \.$$

      (2)

      Следовательно, PAA приводит к сокращению длины с d до w путем разделения S на w разделов равного размера и присвоения каждому разделу среднего значения точек исходного временного ряда, попадающего в этот раздел.

      Символьное представление

      Затем каждое значение \ (\ bar {S} \) отображается на дискретный символ, определенный в алфавите Σ размера α .Для этого символического представления мы используем стандартную технику резюмирования временных рядов, называемую SAX [23, 24].

      Более конкретно, отображение определяется между \ (\ mathbb {R} \) и алфавитом Σ из α символов. Одно из предположений состоит в том, что каждая переменная временного ряда генерируется базовым распределением, например, гауссовым. Затем определяется набор из α −1 точек останова \ (\ mathcal {B} = \ {\ beta _ {1}, \ ldots, \ beta _ {\ alpha -1} \} \), так что площадь под гауссовой нормальной кривой N (0,1) от каждой пары ( β i , β i +1 ) равна 1/ α , предполагая, что β 0 = — и β α = .Следовательно, при желаемом размере алфавита α точки останова можно легко определить, обратившись к статистической таблице. После получения точек останова \ (\ bar {S} \) отображается на последовательность символов \ (\ hat {S} \) следующим образом: все коэффициенты, которые ниже первой точки останова, отображаются на первый символ алфавита , например, a ; следующий набор коэффициентов со значениями между первой и второй точками останова отображается на второй доступный символ, например, b ; и так далее.Результирующее символическое представление \ (\ hat {S} \) называется SAX-приближением S , определенным над SAX-алфавитом Σ из α символов. Применяя SAX, исходное многомерное пространство признаков \ (\ mathcal {A} \) преобразуется в его представление SAX, которое определяет символьное многомерное пространство признаков \ (\ mathcal {\ hat {A}} = \ left \ {\ hat {A} _ {1}, \ ldots, \ hat {A} _ {m} \ right \} \), содержащий представления символьных последовательностей переменной длины.

      Алфавитная калибровка

      Как видно, параметр для калибровки при использовании SAX — это размер алфавита α , который соответствует количеству символов, которые используются для отображения нормализованных значений временного ряда.В идеале необходимо минимальное количество символов, чтобы отразить основную динамику временного ряда. Поскольку последний, как правило, неизвестен, выбор правильного размера алфавита в основном является эмпирической задачей [44].

      В конце фазы A каждый многовариантный объект O преобразуется в свой символический аналог, обозначенный как \ (\ hat {O} \). Следовательно, совокупность многовариантных объектов \ (\ mathcal {O} \) преобразуется в совокупность помеченных символических объектов, обозначенных как \ (\ mathcal {\ hat {O}} \), и преобразованный обучающий набор имеет вид теперь обозначается как \ (\ mathcal {\ hat {L}} \), а пустые записи в объекте данных представлены как пустой набор ().Обратите внимание, что создание на этапе A повторяет метод, описанный Zhao et al. [32], чтобы оценить выгоду от использования последующих фаз.

      Этап B: перечисление подпоследовательностей

      На втором этапе, после того, как исходное многомерное пространство признаков было преобразовано в его символическое представление, генерируется, оценивается пул репрезентативных подпоследовательностей-кандидатов и подмножество наиболее репрезентативных окончательно выбран. Общая цель этого этапа — идентифицировать отличительную от класса подпоследовательность, которую мы обозначаем как s-shapelet, для каждой многовариантной функции.Этот процесс, который состоит из трех шагов, подробно описан ниже.

      Генерация подпоследовательности

      Предположим, нам дана символическая последовательность \ (\ hat {S} \) длины \ (\ left | \ hat {S} \ right | \), соответствующая экземпляру функции \ (\ hat {A} _ {i} \), который является символическим представлением исходной многовариантной характеристики A i . Подпоследовательность s \ (\ hat {S} \) определяется как выборка длины | s | смежных символов из \ (\ hat {S} \), таких что \ (| s | \ leq \ left | \ hat {S} \ right | \), i.е., \ (s = \ left \ {\ hat {S} _ {t}, \ ldots, \ hat {S} _ {t + | s | -1} \ right \} \), с \ (| s | \ leq t \ leq — \ left | \ hat {S} \ right | +1 \).

      Учитывая символическое представление \ (\ mathcal {\ hat {L}} \) многомерного обучающего набора \ (\ mathcal {L} \) и размер алфавита α , мы генерируем пул кандидатов подпоследовательностей, обозначенных как \ (\ mathcal {S} _ {\ alpha} \), путем случайной выборки последовательностей в \ (\ mathcal {\ hat {L}} \). На практике \ (\ mathcal {S} _ {\ alpha} \) содержит фрагменты существующих символьных последовательностей в \ (\ mathcal {\ hat {L}} \) произвольной длины в [1, l max ], где l max — длина самой длинной последовательности в \ (\ mathcal {\ hat {L}} \).

      Оценка подпоследовательности

      Набор случайно сгенерированных подпоследовательностей \ (\ mathcal {S} _ {\ alpha} \) затем оценивается на основе утилиты каждой подпоследовательности. ​​{\ prime} \ right) \ right \}.$$

      (3)

      Интуитивно вышеупомянутое расстояние соответствует несходству между s и его наиболее подходящей подпоследовательностью в \ (\ mathcal {\ hat {S}} \). Хотя D (·, ·) может быть любой функцией расстояния для сопоставления строк, в этой статье мы используем расстояние редактирования [45], поскольку это одна из наиболее широко используемых мер для оценки схожести строк.

      Следует отметить, что в подходе, описанном в Zhao et al.[32], именуемой случайной динамической подпоследовательностью , аналогичная идея использовалась для измерения расстояния между подпоследовательностью-кандидатом и последовательностью данных. Ключевое отличие в нашей статье состоит в том, что мы используем модифицированную функцию расстояния редактирования (уравнение 3), которая вычисляет наилучшее совпадение подпоследовательности кандидата s в целевой последовательности, в отличие от полного совпадения последовательности, вычисляемого с помощью случайных чисел. {k} p (y_ {i}) log (p (y_ {i })).{q} \ frac {\ left | \ mathcal {\ hat {L}} _ {i} \ right |} {\ left | \ mathcal {\ hat {L}} \ right |} I \ left (\ mathcal { \ hat {L}} _ {i} \ right). $$

      (5)

      Учитывая определение энтропии, мы можем определить прирост информации , который дает конкретная стратегия разделения для набора данных \ (\ mathcal {\ hat {L}} \), как:

      $$ Усиление \ left (\ left \ {\ mathcal {\ hat {L}} _ {1}, \ ldots, \ mathcal {\ hat {L}} _ {q} \ right \} \ right): = I \ left (\ mathcal {\ hat {L}} \ right) — I \ left (\ left \ {\ mathcal {\ hat {L}} _ {1}, \ ldots, \ mathcal {\ hat {L }} _ {q} \ right \} \ right).$$

      (6)

      Полезность подпоследовательности в нашем пуле кандидатов \ (\ mathcal {S} _ {\ alpha} \) вычисляется в соответствии с подходом Ye et al. [46]. Точнее, для каждой подпоследовательности \ (s \ in \ mathcal {S} _ {\ alpha} \) мы вычисляем несходство между s и всеми последовательностями в \ (\ mathcal {\ hat {L}} \) , используя функцию D i s t (·, ·) (уравнение 3), чтобы вызвать разделение \ (\ mathcal {\ hat {L}} \) на два непересекающихся подмножества \ (\ mathcal {\ hat {L}} _ {1} \) и \ (\ mathcal {\ hat {L}} _ {2} \).Для простоты мы рассматриваем двусторонние разбиения, т.е. q = 2, но этот подход можно обобщить на любое количество разбиений. Следовательно, информационный прирост, данный s , оценивается (с использованием уравнения 6) и измеряет способность s разделить \ (\ mathcal {\ hat {L}} \) на два раздела с распределениями классов с низкой энтропией.

      Наконец, пусть \ (\ mathcal {\ hat {S}} \) обозначает символьную последовательность характеристик объекта в \ (\ mathcal {\ hat {L}} \). Чтобы максимизировать получение информации, мы ищем пороговое значение расстояния δ , такое, что каждому \ (\ mathcal {\ hat {S}} \ in \ mathcal {\ hat {L}} \) назначается \ (\ mathcal {\ hat {L}} _ {1} \) если \ (Dist (s, \ mathcal {\ hat {S}}) <\ delta \) или до \ (\ mathcal {\ hat {L}} _ { 2} \) в противном случае.Затем мы расширяем предыдущее уравнение, чтобы определить усиление, достигаемое подпоследовательностью s с заданным пороговым значением расстояния δ следующим образом:

      $$ \ begin {array} {* {20} l} Gain \ left (s, \ delta, \ mathcal {\ hat {L}} \ right): = Gain \ left (\ left \ {\ mathcal { \ hat {L}} _ {1}, \ mathcal {\ hat {L}} _ {2} \ right \} \ right), \ end {array} $$

      (7)

      где \ (\ mathcal {\ hat {L}} _ {1} = \ left \ {\ mathcal {\ hat {S}} \! \ In \! \ Mathcal {\ hat {L}}: Dist \ left (s, \ mathcal {\ hat {S}} \ right) \! <\! \ delta \ right \} \) и \ (\ mathcal {\ hat {L}} _ {2} = \ left \ { \ mathcal {\ hat {S}} \! \ in \! \ mathcal {\ hat {L}}: Расстояние \ left (s, \ mathcal {\ hat {S}} \ right) \! \ geq \! \ дельта \ право \} \).В частности, мы ищем значение δ , вызывающее разделение \ (\ mathcal {\ hat {L}} \) с наименьшей возможной энтропией. Более конкретно, на основании определения оптимальной точки разделения , данного в Ye et al. [46], мы определяем такой порог расстояния как:

      $$ \ delta_ {osp} \ left (s, \ mathcal {\ hat {L}} \ right): = \ arg \ max _ {\ delta} Усиление \ left (s, \ delta, \ mathcal {\ hat {L}} \ right). $$

      (8)

      Алгоритм 1 схематично описывает процесс оценки, описанный выше, а на рис.2 изображен графический пример.

      Рис. 2

      Оценка простой подпоследовательности. Графическое представление того, как оценивается подпоследовательность s, = ’abba’, и выбирается соответствующий порог оптимального расстояния δ, osp (abba). В верхней части рисунка обучающий набор \ (\ hat {\ mathcal {L}} \) представлен как набор отрицательных (красные квадраты) и положительных (синие круги) последовательностей; внутри каждого класса последовательности расположены в алфавитном порядке.Полная энтропия метки \ (\ hat {\ mathcal {L}} \) равна \ (I \ left (\ hat {\ mathcal {L}} \ right) = 0,918 \). Внизу последовательности в \ (\ mathcal {D} \) расположены на горизонтальной оси на основе их расстояния D i s t (abba, ·) от подпоследовательности. Среди всех возможных возможных пороговых значений δ, ∈ [1,4], два лучших представлены на рисунке, а именно δ = 3 и δ = 4, что дает прирост информации 0.459 и 0,317 соответственно: поэтому δ osp (abba): = 3 выбрано в качестве оптимального расстояния разделения для подпоследовательности ’abba’

      Предполагая, что наше многомерное пространство признаков разрежено, т. Е. Большая часть пространства признаков в нашем наборе необработанных данных содержит временные ряды нулевой длины, представленные как , недостающие данные играют решающую роль, когда порог оптимального расстояния равен вычислено. В разделе «Использование разреженности» мы объясним, как следует обрабатывать отсутствующие записи на этом этапе, и предложим альтернативные методы для достижения этой цели.

      Выбор подпоследовательности

      До сих пор мы преобразовали необработанные многовариантные признаки в набор данных символьной последовательности и использовали последний для генерации набора возможных репрезентативных подпоследовательностей. Мы также определили способ ранжирования таких кандидатов в соответствии с их полезностью, то есть их способностью разделить набор данных на два раздела с распределениями классов с низкой энтропией.

      Теперь мы хотим идентифицировать репрезентативную подпоследовательность с наивысшей полезностью для переменной многовариантной характеристики.Мы называем эту подпоследовательность шейплетом последовательности или s-shapelet .

      Определение 4

      Для обучающего набора \ (\ mathcal {L} \) и алфавита Σ размера α , шейплет последовательности или s-shapelet s представляет собой дискретную последовательность событий, определенную по Σ , который индуцирует разделение \ (\ mathcal {\ hat {L}} \) с наибольшим информационным выигрышем, т. {*} _ {\ alpha}: = \ arg \ max_ {s \ in \ mathcal {S _ {\ alpha}}} Прирост \ left (s, {\ delta} _ {osp} (s ), \ mathcal {\ hat {L}} \ right) \ ,.{*} \ left ({\ mathcal {\ hat {A}} _ {m}} \ right) \ right \} \).

      Единственная отсутствующая часть этого этапа — это то, как мы справляемся с разреженностью признаков, то есть значениями признаков, соответствующими пустым последовательностям. В разделе «Использование разреженности» мы опишем три стратегии работы с разреженными многовариантными функциями.

      Фаза C: преобразование данных

      Общий процесс, включая фазы A и B, можно резюмировать с помощью функции \ (\ tau (\ mathcal {L}, w, \ mathcal {I}, \ Sigma, \ alpha, \ emptyset ) \), который принимает в качестве входных данных все параметры фаз A и B, и, наконец, приводит к обученной функции τ (·), где все параметры оптимизируются, как описано в этих двух фазах.{*} \) и соответствующий ему символический объектный признак. Это преобразование выполняется как для обучающего набора \ (\ mathcal {\ hat {L}} \) на этапе обучения модели, так и для тестового набора во время прогнозирования. Интуитивно наши объекты данных преобразуются из набора многовариантных функций (столбцов), каждый из которых является переменной временного ряда, в набор однозначных признаков, где каждое значение признака соответствует расстоянию между его символическим представлением. к выбранной оптимальной s-образной форме для этой функции.

      Наконец, мы должны подчеркнуть, что опять же, экземпляры объектов с пустыми записями требуют особого внимания. С этой целью необходимо несколько вариантов дизайна, чтобы выяснить, следует ли учитывать эти пустые записи и как их представлять. Эти варианты описаны ниже.

      Использование разреженности

      На протяжении всей структуры преобразования, в основном на этапе B, описанном в предыдущих разделах, необходимо сделать несколько вариантов дизайна для обработки и использования разреженности пространства функций, т.е.е., данные, которые отсутствуют, не случайно. В этом разделе мы выделяем шаги, на которых такой выбор имеет решающее значение для использования этих недостающих значений в целях повышения производительности прогнозирования. С этой целью мы предлагаем три стратегии, которые мы называем кодированием длины (или простым), наиболее распространенным кодированием (или mc) и оптимизированным кодированием слева-направо (или lr).

      Стратегия I: Кодирование длины (обычное)

      Кодирование отсутствующих записей сначала необходимо, когда необработанные временные ряды отображаются в последовательности SAX, которые.как упоминалось ранее, имеют маркировку . На основе алгоритма 1, когда оценивается подпоследовательность-кандидат s , определяется оптимальный порог расстояния, чтобы вычислить информационный выигрыш, достигаемый разделением данных, вызванным s . На этом этапе необходимо принять решение о том, следует ли и как учитывать пустые последовательности (то есть пустые записи признаков) при вычислении оптимального порога. Например, предположим, что у нас есть очень разреженный многовариантный обучающий набор \ (\ mathcal {L} \), который после преобразования в \ (\ mathcal {\ hat {L}} \) отображается в пространство признаков. символических последовательностей с большим количеством пустых строк (т.е., имеющий большую фракцию ).

      Простая стратегия — применить алгоритм 1 напрямую (см. Строки (4) — (6)), так что расстояние между s и будет просто равно длине подпоследовательности-кандидата, то есть, D i s t ( s , ) = | с |. В результате все пустые записи функций будут присвоены либо \ (\ mathcal {\ hat {L}} _ {1} \), либо \ (\ mathcal {\ hat {L}} _ {2} \) исключительно на основе на длине х .{*} \ left (\ mathcal {\ hat {A}} _ {j} \ right) \ right | \) для каждой функции \ (\ mathcal {\ hat {A}} _ {j} \). Этот подход представляет собой модифицированную и улучшенную версию случайной динамической подпоследовательности , использованной в Zhao et al. [32]. В частности, наш метод корректирует смещение, вносимое случайными динамическими подпоследовательностями , то есть в пользу более длинных подпоследовательностей, используя нашу переопределенную меру расстояния между подпоследовательностями. Как следствие, мы используем plain в качестве основы для методов, которые учитывают временную информацию, аналогично тому, как sl действует в качестве основы для методов, которые не , а не учитывают временную информацию в нашей экспериментальной оценке.

      Стратегия II: наиболее распространенное кодирование (mc)

      Альтернативная стратегия — игнорировать пустые записи признаков, соответствующие пустым последовательностям, и вычислять оптимальное разбиение расстояний, используя только непустые записи признаков. Мы называем эту стратегию наиболее распространенным кодированием или mc. Фактически, при построении однозначных характеристик во время обучения и прогнозирования mc заменяет с значением расстояния D i s t ( s , ·), что происходит чаще всего в обучающей выборке.При работе с очень разреженными пространствами функций этот выбор можно интерпретировать как способ рассматривать отсутствующие записи как «частые».

      Рассмотрим, например, пространство признаков, соответствующее клиническим измерениям пациентов в разные периоды времени. Если клинические измерения были записаны только для относительно небольшого числа пациентов, в соответствующем наборе данных записи пустых функций будут повсеместными. Таким образом, сопоставление отсутствующей записи с наиболее часто (или часто) наблюдаемым значением пометит ее как повторяющееся событие.Конечно, не гарантируется, что эта стратегия будет работать для плотных наборов функций, в то время как замена пустых последовательностей наиболее распространенным расстоянием может не уловить фактическое значение отсутствующей меры.

      Стратегия III: оптимизированное кодирование слева-направо (lr)

      Чтобы преодолеть ограничения как простого кодирования длины, так и наиболее распространенного кодирования значений, мы вводим третью стратегию, которую мы называем кодированием слева-направо, или lr. При оценке порога расстояния для данной подпоследовательности и построении результирующего разбиения \ (\ left \ {\ mathcal {\ hat {L}} _ {1}, \ mathcal {\ hat {L}} _ {2} \ right \ } \) (строки (4) и (5) алгоритма 1), lr пытается назначить все s либо на \ (\ mathcal {\ hat {L}} _ {1} \) ( left ) или \ (\ mathcal {\ hat {L}} _ {2} \) ( справа ), и выбирает вариант, обеспечивающий наибольшее информационное усиление.В соответствии с этим выбором расстояние от s-shapelet кандидата до вычисляется следующим образом:

      $$ Dist (s, \ emptyset): = \ left \ {\ begin {array} {ll} 0 & \ emptyset \ rightarrow \ mathcal {\ hat {L}} _ {1} \\ \ max \ limits_ {\ hat {\ mathcal {S}} \ in \ mathcal {\ hat {L}}} Расстояние \ left (s, \ hat {\ mathcal {S}} \ right) и \ emptyset \ rightarrow \ mathcal {\ hat {L}} _ {2} \\ \ end {array} \ right. $$

      (14)

      Это дополнительное вычисление выполняется при выборе значения расстояния разделения и не влияет на оставшиеся шаги преобразования.{*} (\ mathcal {A} _ {j}), \ emptyset) \), j = 1,…, m , и использует это значение для замены отсутствующих записей как во время обучения, так и во время прогнозирования.

      Рис. 3

      Расширенная оценка подпоследовательности. Графический пример того, как работает lr. Сценарий аналогичен показанному на рис. 2: вверху изображен помеченный набор данных последовательности \ (\ hat {\ mathcal {L}} \), который содержит как действительные, так и пустые последовательности; последние обозначены цифрами , а полная энтропия \ (\ mathcal {\ hat {L}} \) равна 0.881. Под представлением набора данных последовательности расположены на горизонтальной линии, показывающей их расстояние от ‘abba’: lr учитывает два случая, соответственно отмеченных A и B . В A , lr помещает все s в левую часть разделения, назначая D i s t (abba, ): = 0; наоборот, в B пустые последовательности помещаются с правой стороны на расстоянии от шейплета, равном \ (Dist (\ texttt {abba}, \ emptyset): = \ max _ {\ mathcal {S} _ { \ alpha} \ in \ hat {\ mathcal {L}}} = 4 \).Оптимальный порог расстояния выбирается на основе самого высокого разделения усиления среди значений, полученных в A и B . На рисунке показаны два примера пороговых значений для обоих случаев, а именно δ = 3 и δ = 4: в частности, δ = 4 оказывается наилучшим вариантом из-за коэффициента усиления (0,193), полученного в А . Следовательно, δ osp (abba): = 4

      В разделе «Использование s-shapelet, выбранных lr по сравнению с обычным» мы подробно рассмотрим стратегию lr с точки зрения интерпретируемости и покажем, что динамическое кодирование отсутствующих данных может (также) помочь понять s-shapelet, который был выбран. для классификации многовариантного набора классов объектов.

      Источник данных

      Эксперименты, проведенные в этой работе, основаны на HealthBank [1, 48], которая представляет собой базу данных EHR, содержащую деидентифицированные медицинские записи примерно 1,2 миллиона пациентов, поступивших в больницу или местное медицинское учреждение в Стокгольме. Район уезда. Данные были собраны в период с 2009 по 2015 год больницей Каролинского университета. Источник данных содержит в общей сложности 11 623 уникальных кода диагнозов, определенных кодами ICD10-SE (10-я редакция Международной статистической классификации болезней и проблем, связанных со здоровьем).

      ADE сообщаются с использованием кодов из семи категорий ADE, предложенных Stausberg и Hasford [49]. Среди них, A.1 и A.2 — , связанная с наркотиком, и , причина, связанная с лекарством или другим веществом, была отмечена в диагностическом коде , соответственно — указывают на явный признак возникновения ADE и, следовательно, являются , включенных в это исследование в качестве возможных наборов данных. Обратите внимание, что наш источник данных не содержит достаточного количества пациентов, охватывающих все категории ADE, упомянутые Stausberg и Hasford [49].

      Эмпирическая оценка

      Мы формулируем наши эксперименты как задачи бинарной классификации. Следовательно, для каждого ADE мы создаем набор данных, в котором примеры данных соответствуют пациентам, которым был или не был назначен соответствующий диагностический код ADE. В каждом наборе данных положительными примерами являются те пациенты, которым был поставлен диагноз определенного ADE, а отрицательными примерами являются те пациенты, которым был присвоен код диагноза, принадлежащий к той же таксономии болезней, т.е.е., разделяя те же первые три уровня иерархии МКБ-10, но не является ADE. Например, если рассматриваемый ADE — I95.2 ( Лекарственная гипотензия ), пациенты с одним и тем же кодом до третьей позиции рассматриваются как отрицательные примеры, то есть I95. * ( Гипотония ) (где * обозначает любой символ) кроме I95.2 . В эксперименты мы включаем стационарное обращение, но только прогнозируем возможность ADE для их последних встреч .

      Наборы данных

      Мы выбрали все ADE, относящиеся к A.1 или A.2 [49] в нашем источнике данных EHR (см. Таблицу 1), которые также были назначены как минимум 50 пациентам практикующими врачами в соответствующей больнице. и клиническое отделение. Пациенты описываются набором результатов клинических лабораторных тестов, закодированных с помощью системы NPU [50] (см. Дополнительный файл 1 для информации о наименее разреженных кодах), записанных за период до 90 дней до возникновения каждого конкретного ADE, но не включая момент времени, когда назначен целевой ADE.Фактически, мы ожидаем, что использование временного окна в 90 дней, не включающего все прошлые события, будет более информативным, поскольку недавние события могут повлиять на цель больше, чем более старые события. Изучение влияния параметра размера окна и его оптимального значения выходит за рамки данного исследования, однако не ожидается, что оно окажет какое-либо существенное влияние на относительную производительность исследуемых подходов.

      Таблица 1 Положительный результат обозначает пациентов с положительным результатом ADE, тогда как отрицательный результат соответствует пациентам с отрицательным результатом ADE

      Клиническая база данных, собранная в больнице Каролинского университета в Стокгольме, Швеция, состоит из медицинских записей 1.2 миллиона пациентов из Стокгольмского региона за 7 лет (2009–2015 гг.). База данных включает 1877 уникальных клинических измерений, полученных в результате лабораторных исследований. Таким образом, в базе данных каждому клиническому лабораторному тесту соответствует многовариантная функция в каждом наборе данных ADE. Мы рассмотрели набор из 15 наборов данных ADE, где каждый набор данных содержал не более 80% непустых записей, то есть имел разреженность не менее 20%. В таблице 2 представлен обзор количества функций в каждом наборе данных ADE, а в таблице 1 представлен обзор характеристик пациентов для каждого набора данных с учетом среднего возраста и распределения полов.

      Таблица 2 Для каждого набора данных ADE количество функций, включенных в процесс обучения с различными требованиями к разреженности
      Бенчмаркированные методы

      Производительность предлагаемой структуры многовариантного представления признаков с использованием трех стратегий пропущенных значений, т. Е. Plain, mc и lr, была оценена с использованием алгоритма Random Forest (RF, [51]). Поскольку предлагаемая нами структура не зависит от модели, мы отмечаем, что можно использовать альтернативные модели прогнозирования.Гиперпараметры для RF были сконфигурированы следующим образом: (i) мы установили количество деревьев равным 100, (ii) в качестве критерия разделения использовалась информационная выгода (согласованная со способом оценки случайных подпоследовательностей и s-shapelet). выбрано), и (iii) количество функций, которые следует учитывать при каждом разделении решений, было установлено на значение по умолчанию \ (\ sqrt {m} \), где m — количество функций в наборе данных.

      В качестве базовой линии мы использовали метод, называемый длиной последовательности, представлением или sl [20].Было показано, что это представление является лучшим однозначным представлением для характеристик клинических лабораторных измерений в контексте обнаружения ADE в EHR по сравнению с несколькими другими методами многовариантного представления признаков, которые не принимают во внимание временной порядок измерений [ 20].

      Настройка алфавита

      Следуя передовой практике, предложенной Чжао и др. [32], мы включаем три различные конфигурации для размера алфавита SAX ( α ).Это α = {2,3,5}, где наименьший размер алфавита используется для отражения двух простых состояний: низкий или высокий , то есть просто ниже или выше среднего. Чтобы обеспечить более мелкозернистые представления, размер алфавита три и пять используются, чтобы указать, что значения могут содержаться в разных регионах распределения значений признаков. Поскольку лучший выбор α априори неизвестен, мы здесь используем простую стратегию, позволяющую алгоритму обучения динамически выбирать лучший размер алфавита.

      Допуск разреженности

      Мы исследовали различные уровни разреженности признаков, введя порог τ sp , который ограничивает максимальную долю отсутствующих данных, которые может содержать объект, чтобы его можно было выбрать (и преобразовать) для обучения . Например, τ sp = 0,2 указывает, что признак принят для обучения, если он содержит не более 20% пустых записей последовательности. В частности, чем выше порог разреженности, тем больше функций выбирается для преобразования и, следовательно, используется прогнозной моделью, в нашем случае RF.Очевидно, что при τ sp = 1.0 учитываются все доступные функции, независимо от процента пустых записей последовательности.

      Мы ссылаемся на Таблицу 2, где указано количество функций, выбранных для каждого набора данных ADE, и пороговое значение разреженности.