From b0fd065b7099f0aea02a10e142eec4d4a2e75483 Mon Sep 17 00:00:00 2001 From: tnn Date: Tue, 20 Aug 2019 20:03:57 +0300 Subject: [PATCH] New material --- tex/20-scenarios.tex | 143 ++++++++++++++++++++++++++++++++++-- tex/30-digital_identity.tex | 79 +------------------- tex/50-implementation.tex | 27 ++----- tex/rpz.bib | 52 +++++++++++++ 4 files changed, 195 insertions(+), 106 deletions(-) diff --git a/tex/20-scenarios.tex b/tex/20-scenarios.tex index e5a023b..85fa496 100644 --- a/tex/20-scenarios.tex +++ b/tex/20-scenarios.tex @@ -3,12 +3,143 @@ \chapter{Анализ взаимодействия жителей с систе \section{Метод анализа истории взаимодействия жителей с системой умного города} -Цель метода: Повышение точности рекомендаций сервисов умного города для выделенных групп жителей умного города в разных контекстах. -Этапы: -Осуществляется построение тематических моделей для открытых сообщений жителя в сервисах умного города (отзывов о местах из Google Knowledge Graph и открытых сообщений в социальных сетях). Темы в тематической модели соответствуют интересам жителей умного города. -По истории использования сервисов умного города оценивается частота и длительность пользования ими, а также эмоциональный отклик при возможности анализа лица пользователя в момент использования сервиса. -Производится анализ контекста в котором находился пользователь при использовании сервисов умного города. -Устанавливается связь использования определённых сервисов для выделенных групп пользователей в разных контекстах. +При взаимодействии жителя умного города с сервисами, обеспечивающими мобильность накапливается большое количество информации, которая может быть использована для дополнительного профилирования жителя. Телеметрия использования сервисов может включать в себя длительность использования, интервалы для, в течение которых используется сервис, контект использования (местоположение, погодные условия, окружение пользователя). Анализ телеметрии и ее использование для класеризации жителей умного города обеспечивает повышение точности рекомендаций сервисов умного города для выделенных групп жителей умного города в разных контекстах. Результаты анализа сохраняются в модели цифровой личности жителя умного города, предложенной на предыдущем тапе проекта. +Для анализа истории взаимодействия жителя умного города с его сервисами предлагается метод, включающий в себя следующие этапы: +\begin{enumerate} +\item Осуществляется анализ профиля и сообщений жителя в сервисах умного города (отзывов о местах из Google Knowledge Graph и открытых сообщений в социальных сетях). Темы в тематической модели соответствуют интересам жителей умного города. +\item По истории использования сервисов умного города оценивается частота и длительность пользования ими, а также эмоциональный отклик при возможности анализа лица пользователя в момент использования сервиса. +\item Производится анализ контекста в котором находился пользователь при использовании сервисов умного города. В качестве контекста рассматриваются поля цифровой личности, относящиеся к окружению пользователя. Анализ контекста на примере рассмотрен в разделе \ref{subsubsec:context}. +\item Устанавливается связь использования определённых сервисов для выделенных групп пользователей в разных контекстах. Для этого используются методы кластеризации, позволяющие выделить группы пользователей на основании частоты использования сервисов и контекста (см. раздел \ref{subsubsec:clasterization}), а также методы рекомендации для групп пользователей, обеспечивающие рекомендацию сервисов на основании текущего контекста и использования сервисов другими пользователями в группе в том же контексте (см. раздел \ref{subsec:recommendation}). +\end{enumerate} + +\subsection{Анализ профилей пользователей в социальной сети ВКонтакте} + +Основным источником данных для агрегации цифровой личности выступает социальная сеть vk.com. +Выбор данной сети были сделан исходя из-за ее распространенности и наличием API для получения информации о пользователях. +API предоставляет возможность получать информацию как о одном пользователе, так и о его ``друзьях'', формируя, тем самым, социальный граф. +В качестве информации о пользователи можно запросить его личную информацию (ФИО, возраст, пол, родной город и т.д.), общую информацию о родных и друзьях, +а также его интересы (книжные, игровые, спортивные и т.д.). + +Однако, интересы, предоставляемые при помощи API, записаны в виде обычных строк, без разделения на объекты, в отличии, например, от социальной сети Facebook, +в которой добавление интересов происходит путем добавления страницы-объекта. +Вдобавок, vk.com не регламентирует запись интересов, оставляя право пользователям в свободной форме описывать данные. +Таким образом, использовать данные по интересам в “сыром” виде не представляется возможным. +Поэтому, для корректного составления цифровой личности необходимо программно обработать интересы, выделив необходимые объекты и приведя их к единому виду. +Из доступных интересов были выбраны следующие категории: \emph{``книги''} (books), \emph{``игры''} (games), +\emph{``фильмы''} (films), \emph{``музыка''} (music) и \emph{``телевидение''} (tv). + +\subsection{Агрегация данных из открытых источников} + +Для решения поставленной задачи было решено использовать доступные в открытом доступе базы знаний (knowledge bases). +Одним из достоинств подобных баз знаний - структурированное хранение большого количество информации, касаемой той или иной области. +В качестве источников данных были выбраны такие проекты как Google Knowledge Graph \footnote{https://developers.google.com/knowledge-graph/} +и wikidata \footnote{https://www.wikidata.org/wiki/Wikidata:Main\_Page}. +Оба эти проекта хранят в себе информацию о концептах и объектах реального мира, которые можно использовать для идентификации сущностей в интересах пользователей. + +Принцип работы с обеими базами знаниями одинаков~---~интересы пользователя разбиваются на токены (отдельный интерес), +каждый токен подается на вход базе знаний в заранее сформированном запросе, и из полученных данных выбирается наиболее подходящий концепт. +И Wikidata, и Google Knowledge Graph предоставляют данные о концепте в виде ссылки на определенную статью в Wikipedia, +что позволяет стандартизировать информацию об интересе пользователя и, соответственно, правильно ее интерпретировать. +Разбиение на токены происходит на основе знаков препинания (точки, запятые, точки с запятой и т.д.). + +Сервис Google Knowledge Graph (KG) предоставляет доступ к базе знаний при помощи API-ключа, однако, общее количество запросов ограничено~---~в целом, KG позволяет сделать +около 100 000 запросов. В качестве запроса сервис принимает строку, в которой отражен искомый интерес пользователя. +В качестве ответа, сервисы выдает набор сущностей базы знаний, которые наиболее подходят, по мнению KG, в качестве ответа. +Каждый элемент листа имеет внутреннюю ссылку на элемент в внутренней структуре базы знаний, общее описание, ссылку на Википедию, и индекс правдоподобности. +Индекс правдоподобности результата облегчает процесс вставки наиболее подходящего концепта в итоговый результат. + +KG разбивает свои внутренние концепты на следующие категории, описанные словарем +Schema.org \footnote{https://schema.org/}: \emph{``Book''}, \emph{``BookSeries''}, \emph{``Event''}, \emph{``Movie''}, \emph{``Place''}, \emph{``Person''} и т.д. +Cоотношение между концептами интересов vk.com и концептами KG представлено в листинге~\ref{lst:vk_kg}. + +% Это нормально (!), что в figure listing нет самого кода, иначе он не будет разбиваться постранично +\inputminted[frame=lines, linenos, breaklines]{python}{../src/kg_mapping.py} +\begin{listing}[H] + \caption{Соотношение концептов vk.com API и Google Knowledge Graph} + \label{lst:vk_kg} +\end{listing} + +Запрос к базе знаний KG производится при помощи GET-запроса представлен в листинге~\ref{lst:kg_searching}. +В query передается токен`---`очищенное название интереса пользователя vk.com. + +\inputminted[frame=lines, linenos, breaklines]{python}{../src/kg_searching.py} +\begin{listing}[H] + \caption{Поиск концептов из интересов пользователя в Google Knowledge Graph} + \label{lst:kg_searching} +\end{listing} + +Сервис Wikidata предполагает написание SPARQL-запрос вместо указывания названия сущности. +Также стоит отметить, что сущности пронумерованы в формате QXX (где XX~---~цифры), поэтому было произведен поиск во открытой документации Wikidata. +Каждая сущность имеет свой набор полей, которые описывает сущность. +В качестве ответа Wikidata возвращает список найденных концептов, однако решение о включении самого происходящего результата должен делать конечный пользователь, +например, на основе совпадения строк запрашиваемых данных и итогового результата. + +Соотношение концептов интересов vk.com и wikidata представлено в листинге~\ref{lst:vk_wiki}. +Итоговая SPARQL-конструкция, которая используется для запросов представлена в листинге~\ref{}. + +\inputminted[frame=lines, linenos, breaklines]{python}{../src/wikidata_mapping.py} +\begin{listing}[H] + \caption{Соотношение концептов vk.com API и Wikidata} + \label{lst:vk_wiki} +\end{listing} + +\inputminted[frame=lines, linenos, breaklines]{python}{../src/wikidata_sparql.py} +\begin{listing}[H] + \caption{SPARQL-запрос к информации Wikidata} + \label{lst:vk_wiki} +\end{listing} + + +\subsection{Анализ эмоционального состояния в зависимости от контекста пользователя} +Современные системы оперируют в основном демографическими группами, члены которых характеризуются полом и возрастом. Для каждой демографической группы определяются значения заинтересованности членов данной группы в той или иной теме[1]. Однако, ни одна существующая система не учитывает эмоции пользователя от использования функций системы. +Предполагается, что эмоции играют не последнюю роль в успешности приложения, как и рекламы [2]. Поскольку для анализа личность пользователя не важна, состояние пользователя обезличивается перед обработкий. Современные технологии позволяют выделить следующие анонимные данные для каждого пользователя, идентифицированного в видеопотоке: предположительный пол, возраст и вероятность той или иной эмоции: злости, сомнения, отвращения, страха, счастья, грусти и удивления. +На основе данной информации можно разбить всех пользователей системы умного города на демографические группы. Мы предполагаем, что для каждой демографической группы возможно выделить целевое эмоциональное состояние, при котором использование какой-либо функции будет наиболее обоснованным. В результате, демографическая группа характеризуется следующими параметрами: +\begin{itemize} +\item возрастной промежуток участников, +\item пол, +\item эмоциональное состояние, +\item эмоциональное состояние, оптимальное для работы системы. +\end{itemize} + +Для описания демонстрируемых рекламных роликов нам необходима следующая информация: +\begin{itemize} +\item продолжительность взаимодействия, +\item темы, затрагиваемые в роликах и их важность в данном ролике, +\item интерес, проявленный представителями той или иной демографической группы к рекламному ролику. +\item ожидаемое эмоциональное состояние от представителей той или иной демографической группы. \end{itemize} + +Определение пользователя +Для начала системе необходимо определить, кто находится пере экраном. На вход подается кадр с камеры. При помощи API анализа лиц (Azure) на кадре определяется человек, его пол и возраст, а также вероятности наблюдения той или иной эмоции. На основе информации о поле и возрасте уточняется демографическая группа, к которой принадлежит пользователь. +Ожидаемое эмоциональное влияние рекламного ролика +Вторым шагом в работе системы является оценка ожидаемого эмоционального отклика каждого зрителя. Расчёты предлагается производить по формуле~\ref{eq:expected_emotions}. +\begin{equation} + \label{eq:expected_emotions} + \begin{aligned} + expected\_emotions_{c,g,l} = (\sum^m_{p=0} previous\_emotion_{c,p,l})/m, + \end{aligned} +\end{equation} +где $expected\_emotions_{c,g,l}$ – ожидаемое значение эмоции $c$ пользователя из демографической группы $g$ после использования функции $l$; $previous\_emotion_{c,p,l}$ – значение эмоции $c$ пользователя $p$, принадлежащего демографической группе $g$, после использования функции $l$; $m$ – общее количество пользователей, принадлежащих демографической группе $g$, которые использовали функцию $l$. +Для решения проблемы холодного старта будем предполагать, что ожидаемое значение эмоции соответствует целевому значению данной эмоции~\ref{eq:target_emotions}. + +\begin{equation} + \label{eq:target_emotions} + \begin{aligned} + expected\_emotions_{c,g,l}=target\_emotion_{c,g}, + \end{aligned} +\end{equation} +где $target\_emotion_{c,g}$ – целевое значение эмоции $c$ для демографической группы $g$, к которой принадлежит пользователь. + +\emph{Ожидаемый эмоциональный выигрыш} может быть рассчитан как изменение разницы между действительными и целевыми значениями эмоционального состояния человека~\ref{eq:real_emotions}. +\begin{equation} + \label{eq:real_emotions} + \begin{aligned} + emotion_{l,p}=\sum^k_{c=0}(|target\_emotion_{c,g}- real\_emotion_{c,p} |-|target\_emotion_{c,g}\\- expected\_emotions_{c,p,l} |) *100/k + \end{aligned} +\end{equation} + +Где $emotion_{l,p}$ – эмоциональный выигрыш от использования функции $l$ пользователем $p$; $target\_emotion_{c,g}$ – целевое значение эмоции $c$ для демографической группы $g$, к которой принадлежит пользователь; $real\_emotion_{c,p}$ – реальное значение эмоции $c$ для демографической группы $g$, к которой принадлежит пользователь; $expected\_emotions_{c,p,l}$ - ожидаемое значение эмоции $c$ пользователя из демографической группы $g$ после использования функции $l$; $k$ – количество эмоций, принимаемых во внимание. +Подбор ролика +Рассчитав значения эмоционального выигрыша от демонстрации каждого рекламного ролика группе пользователей, находящихся у экрана, можно ранжировать ролики в зависимости от полученного значения выигрыша. Предполагается, что система должна выбрать ролик, который принесет наибольший эмоциональный выигрыш. \section{Обзор веб-сервисов для обеспечения мобильности жителя умного города} diff --git a/tex/30-digital_identity.tex b/tex/30-digital_identity.tex index 0aabc86..59d91fa 100644 --- a/tex/30-digital_identity.tex +++ b/tex/30-digital_identity.tex @@ -1,85 +1,8 @@ \chapter{Анализ параметров цифровой личности жителя умного города и классификация жителей} \label{cha:digital_identity} -\section{Исследование профилей пользователей в социальной сети ВКонтакте} - -\subsection{Агрегация данных из различных источников} - -Основным источником данных для агрегации цифровой личности выступает социальная сеть vk.com. -Выбор данной сети были сделан исходя из-за ее распространенности и наличием API для получения информации о пользователях. -API предоставляет возможность получать информацию как о одном пользователе, так и о его ``друзьях'', формируя, тем самым, социальный граф. -В качестве информации о пользователи можно запросить его личную информацию (ФИО, возраст, пол, родной город и т.д.), общую информацию о родных и друзьях, -а также его интересы (книжные, игровые, спортивные и т.д.). - -Однако, интересы, предоставляемые при помощи API, записаны в виде обычных строк, без разделения на объекты, в отличии, например, от социальной сети Facebook, -в которой добавление интересов происходит путем добавления страницы-объекта. -Вдобавок, vk.com не регламентирует запись интересов, оставляя право пользователям в свободной форме описывать данные. -Таким образом, использовать данные по интересам в “сыром” виде не представляется возможным. -Поэтому, для корректного составления цифровой личности необходимо программно обработать интересы, выделив необходимые объекты и приведя их к единому виду. -Из доступных интересов были выбраны следующие категории: \emph{``книги''} (books), \emph{``игры''} (games), -\emph{``фильмы''} (films), \emph{``музыка''} (music) и \emph{``телевидение''} (tv). - -Для решения поставленной задачи было решено использовать доступные в открытом доступе базы знаний (knowledge bases). -Одним из достоинств подобных баз знаний - структурированное хранение большого количество информации, касаемой той или иной области. -В качестве источников данных были выбраны такие проекты как Google Knowledge Graph \footnote{https://developers.google.com/knowledge-graph/} -и wikidata \footnote{https://www.wikidata.org/wiki/Wikidata:Main\_Page}. -Оба эти проекта хранят в себе информацию о концептах и объектах реального мира, которые можно использовать для идентификации сущностей в интересах пользователей. - -Принцип работы с обеими базами знаниями одинаков~---~интересы пользователя разбиваются на токены (отдельный интерес), -каждый токен подается на вход базе знаний в заранее сформированном запросе, и из полученных данных выбирается наиболее подходящий концепт. -И Wikidata, и Google Knowledge Graph предоставляют данные о концепте в виде ссылки на определенную статью в Wikipedia, -что позволяет стандартизировать информацию об интересе пользователя и, соответственно, правильно ее интерпретировать. -Разбиение на токены происходит на основе знаков препинания (точки, запятые, точки с запятой и т.д.). - -Сервис Google Knowledge Graph (KG) предоставляет доступ к базе знаний при помощи API-ключа, однако, общее количество запросов ограничено~---~в целом, KG позволяет сделать -около 100 000 запросов. В качестве запроса сервис принимает строку, в которой отражен искомый интерес пользователя. -В качестве ответа, сервисы выдает набор сущностей базы знаний, которые наиболее подходят, по мнению KG, в качестве ответа. -Каждый элемент листа имеет внутреннюю ссылку на элемент в внутренней структуре базы знаний, общее описание, ссылку на Википедию, и индекс правдоподобности. -Индекс правдоподобности результата облегчает процесс вставки наиболее подходящего концепта в итоговый результат. - -KG разбивает свои внутренние концепты на следующие категории, описанные словарем -Schema.org \footnote{https://schema.org/}: \emph{``Book''}, \emph{``BookSeries''}, \emph{``Event''}, \emph{``Movie''}, \emph{``Place''}, \emph{``Person''} и т.д. -Cоотношение между концептами интересов vk.com и концептами KG представлено в листинге~\ref{lst:vk_kg}. - -% Это нормально (!), что в figure listing нет самого кода, иначе он не будет разбиваться постранично -\inputminted[frame=lines, linenos, breaklines]{python}{../src/kg_mapping.py} -\begin{listing}[H] - \caption{Соотношение концептов vk.com API и Google Knowledge Graph} - \label{lst:vk_kg} -\end{listing} - -Запрос к базе знаний KG производится при помощи GET-запроса представлен в листинге~\ref{lst:kg_searching}. -В query передается токен`---`очищенное название интереса пользователя vk.com. - -\inputminted[frame=lines, linenos, breaklines]{python}{../src/kg_searching.py} -\begin{listing}[H] - \caption{Поиск концептов из интересов пользователя в Google Knowledge Graph} - \label{lst:kg_searching} -\end{listing} - -Сервис Wikidata предполагает написание SPARQL-запрос вместо указывания названия сущности. -Также стоит отметить, что сущности пронумерованы в формате QXX (где XX~---~цифры), поэтому было произведен поиск во открытой документации Wikidata. -Каждая сущность имеет свой набор полей, которые описывает сущность. -В качестве ответа Wikidata возвращает список найденных концептов, однако решение о включении самого происходящего результата должен делать конечный пользователь, -например, на основе совпадения строк запрашиваемых данных и итогового результата. - -Соотношение концептов интересов vk.com и wikidata представлено в листинге~\ref{lst:vk_wiki}. -Итоговая SPARQL-конструкция, которая используется для запросов представлена в листинге~\ref{}. - -\inputminted[frame=lines, linenos, breaklines]{python}{../src/wikidata_mapping.py} -\begin{listing}[H] - \caption{Соотношение концептов vk.com API и Wikidata} - \label{lst:vk_wiki} -\end{listing} - -\inputminted[frame=lines, linenos, breaklines]{python}{../src/wikidata_sparql.py} -\begin{listing}[H] - \caption{SPARQL-запрос к информации Wikidata} - \label{lst:vk_wiki} -\end{listing} - -\subsection{Определение полей цифровой личности, применимых для кластерного анализа} +\subsection{Спецификация параметров цифровой личности, применимых для кластерного анализа} \subsubsection*{\textbf{Исходные данные для кластеризации}} diff --git a/tex/50-implementation.tex b/tex/50-implementation.tex index f95bb5f..ae901ba 100644 --- a/tex/50-implementation.tex +++ b/tex/50-implementation.tex @@ -64,7 +64,7 @@ \subsection{Сервис управления цифровыми личност \subsection{Кластерный анализ} \subsubsection*{\textbf{Генерация контекстов использования сервисов}} - +\label{subsubsec:context} Для каждого из полученных после обработки профилей пользователей было сгенерировано по три контекста использования сервисов, то есть при каком контексте данный пользователей воспользовался каким-либо сервисом. В результате было получено 48399 контекстов. @@ -144,7 +144,7 @@ \subsubsection*{\textbf{Предсказание использования се \end{equation} \subsubsection*{\textbf{Кластеризация методом k-средних}} - +\label{subsubsec:clasterization} Для визуализации результата кластеризации методом K-средних, получившиеся кластеры были спроецированы на плоскость с помощью алгоритма t-SNE, реализованного в библиотеке openTSNE\footnote{https://github.com/pavlin-policar/openTSNE}, который является техникой нелинейного снижения размерности, хорошо подходящей для вложения данных высокой размерности для визуализации в пространство низкой размерности (двух- или трехмерное). Результат работы алгоритма представлен на рисунке~\ref{fig:clusterization_result}: @@ -603,7 +603,7 @@ \subsection{Классификация} \end{figure} \subsection{Рекомендация сервисов} - +\label{subsec:recommendation} В рамках данной работы была создана модель рекомендации с учетом контекста (где каждый уникальный набор значений свойств контекста пользователя рассматривался как отдельный субъект). Для обучения и тестирования модели исходный набор данных, содержащий 3.6 млн экземпляров оценок релевантности одного сервиса для одного пользователя, был случайным образом разделены 90/10. @@ -713,24 +713,6 @@ \subsection{Семантический анализ запроса} \end{longtable} \end{center} -\subsection{Анализ эмоционального состояния в зависимости от контекста пользователя} - -Сервис будет реализован при помощи API Microsoft Azure для распознавания лиц на фотографиях с указанием эмоций. -На вход подается кадр с камеры. -При помощи API на кадре определяется человек, его пол и возраст, а также вероятности наблюдения той или иной эмоции: -злости, сомнения, отвращения, страха, счастья, грусти и удивления. - -На основе информации о поле и возрасте зрителя определяется демографическая группа, к которой принадлежит пользователь. -Информация о демографической группе пользователя и его текущем эмоциональном состоянии позволяет подобрать рекомендуемые значения эмоционального состояния. -Для определения этих значений необходимо проведение соответствующих экспериментов с участием квалифицированных экспертов. -Предполагается, что нахождения зрителя в подобном состоянии позволит более эффективно демонстрировать рекламу. - -На основе текущего и желаемого эмоциональных состояний пользователя производится подбор рекламных роликов. -Ролики должны быть подобраны таким образом, чтобы приблизить текущее эмоциональное состояние пользователя к желаемому. -Оценка изменения эмоционального состояния для пользователей, принадлежащих к определенной демографической группе, -производится на основе статистических данных о результатах демонстрации данного ролика представителям данной демографической группы. -При холодном старте предполагается, что результат от демонстрации ролика совпадает с желаемым эмоциональным состоянием пользователя. - \subsection{ Метод подбора персонала в организацию} Подбор персонала происходит на основе обязательных и дополнительных требований к компетенциям работников, а также дополнительных критериев, таких как образование и опыт работы. @@ -758,8 +740,9 @@ \subsection{ Метод подбора персонала в организац \label{fig:cmpt_2} \end{figure} -Сервис реализован в рамках системы управления компетенциями, так как в ней имеются возможности профилирования организаций и работников, +Сервис реализован в рамках системы управления компетенциями~\cite{Petrov_2018,Stepanenko_2018}, так как в ней имеются возможности профилирования организаций и работников, а также формализованы компетенции работников. +Кроме того, управление компетенциями широко используется в управлении персоналом в организациях~\cite{Miranda_2017,Lili_2017}, поэтому его можно применять и для подбора персонала. Backend реализован с использованием Java и фреймворка Spring\footnote{https://spring.io/}. Интерфейс сервиса представлен на рисунке~\ref{fig:cmpt_1}. % cmpt_1 diff --git a/tex/rpz.bib b/tex/rpz.bib index 09cedc7..7458473 100644 --- a/tex/rpz.bib +++ b/tex/rpz.bib @@ -85,3 +85,55 @@ month={Nov},} publisher = {Taylor \& Francis, Inc.}, address = {Bristol, PA, USA}, } + +@article{Lili_2017, +title = {An Inverse Optimization Model for Human Resource Allocation Problem Considering Competency Disadvantage Structure}, +journal = {Procedia Computer Science}, +volume = {112}, +pages = {1611 - 1622}, +year = {2017}, +note = {Knowledge-Based and Intelligent Information \& Engineering Systems: Proceedings of the 21st International Conference, KES-20176-8 September 2017, Marseille, France}, +issn = {1877-0509}, +doi = {https://doi.org/10.1016/j.procs.2017.08.248}, +url = {http://www.sciencedirect.com/science/article/pii/S1877050917316575}, +author = {Zhang, Lili}, +keywords = {inverse optimization, linear programming, human resource allocation, competency, evaluation according to disadvantage structure} +} + +@article{Miranda_2017, +title = {An ontology-based model for competence management}, +journal = {Data \& Knowledge Engineering}, +volume = {107}, +pages = {51--66}, +year = {2017}, +issn = {0169-023X}, +doi = {https://doi.org/10.1016/j.datak.2016.12.001}, +url = {http://www.sciencedirect.com/science/article/pii/S0169023X16303640}, +author = {Sergio Miranda and Francesco Orciuoli and Vincenzo Loia and Demetrios Sampson}, +keywords = {Ontology engineering, Competence-based management, Semantic web, Context space theory, Fuzzy logic} +} + +@InProceedings{Petrov_2018, +author={Petrov, Mikhail and Kashevnik, Alexey and Stepanenko, Viktoriia}, +editor={Alexandrov, Daniel A. and Boukhanovsky, Alexander V. and Chugunov, Andrei V. and Kabanov, Yury and Koltsova, Olessia}, +title={Competence-Based Method of Human Community Forming in Expert Network for Joint Task Solving}, +booktitle={Digital Transformation and Global Society}, +year={2018}, +publisher={Springer International Publishing}, +address={Cham}, +pages={24--38}, +isbn={978-3-030-02843-5} +} + +@article{Stepanenko_2018, +title={Контекстно-ориентированное управление компетенциями в экспертных сетях}, +volume={4}, +url={http://proceedings.spiiras.nw.ru/index.php/sp/article/view/3737}, +DOI={10.15622/sp.59.7}, +number={59}, +journal={Труды СПИИРАН}, +author={Степаненко, Виктория Александровна and Кашевник, Алексей Михайлович and Гуртов, Андрей Валерьевич}, +year={2018}, +month={июн.}, +pages={164-191} +} -- GitLab