Russian English
scientificjournal-foto2

Если Вы хотите напечататься в ближайшем номере, не откладывайте отправку заявки. Потратьте одну минуту, заполните и отправьте заявку в Редакцию.

Печатная версия журнала «Вестник науки и образования» выходит два раза в месяц(ориентировочно 14 и 29 числа, ежемесячно уточняется). Следующая печатная версия журнала выйдет - 26.09.2019 г. Статьи принимаются до 19.09.2019 г.

В электронной официальной версии (Роскомназдор Эл № ФС77-58456) журнала Вы можете опубликовать статью моментально после одобрения её публикации. Как отдельный электронный журнал, журнал выходит каждую пятницу. Следующая электронная версия журнала выйдет - 26.09.2019 г. Статьи принимаются до 19.09.2019 г.



 

Гарнышев И.Н., Казанцев С.В., Мальков Р.Ю., Семенов И.Д., Юдин С.В.

Email: Garnyshev670@scientifictext.ru

Гарнышев Игорь Николаевич - сетевой инженер,

отдел администрирования сетей передачи данных,

Тинькофф Банк;

Казанцев Сергей Владимирович - главный инженер,

департамент сетей передачи данных,

Сбербанк,

г. Москва;

Мальков Роман Юрьевич – эксперт,

Центр компетенций по облачным решениям,

Техносерв, г. Москва;

Семенов Иван Дмитриевич - старший инженер,

Департамент сетей передачи данных,

Servers.com Лимассол, Кипр;

Юдин Степан Вячеславович - администратор сети,

Департамент технического обеспечения и развития инфраструктуры информационных систем,

Спортмастер, г. Москва

Аннотация: в статье проведен анализ принципов кодирования дискретного информационного источника. Предложены алгоритмы определения условной вероятности и условной энтропии для символьных наборов данных. Разработана методика работы с длинными последовательностями на основе комбинаторной энтропии, представлены алгоритмы работы с символьными наборами на базе функции энтропии стохастического процесса. В результате проведенной работы была построена обобщенная схема использования случайных полей Пикарда, которая может быть использована в процессе кодирования изображений при помощи двумерных массивов данных.

Ключевые слова: дискретный источник, условная вероятность, условная энтропия, символьный блок, двумерный массив, цепи Маркова, случайные поля Пикарда.

METHODOLOGY FOR PROCESSING OF FINITE-STATE INFORMATION SOURCES

Garnyshev I.N., Kazantsev S.V., Malkov R.Yu., Semenov I.D., Iudin S.V.

Garnyshev Igor Nikolaevich - Network Engineer,

 DATA NETWORK ADMINISTRATION DEPARTMENT,

TINKOFF BANK;

Kazantsev Sergei Vladimirovich - Senior Engineer,

NETWORK DEPARTMENT,

 SBERBANK,

 MOSCOW;

Malkov Roman Yuryevich – Expert,

CLOUD SOLUTIONS DEPARTMENT,

TECHNOSERV CLOUD, MOSCOW;

Semenov Ivan Dmitrievich - Senior Engineer,

NETWORK DEPARTMENT,

SERVERS.COM LIMASSOL, CYPRUS;

Iudin Stepan Vyacheslavovich - Network Аdministrator,

DEPARTMENT OF TECHNICAL SUPPORT AND INFORMATION SYSTEMS INFRASTRUCTURE DEVELOPMENT,

SPORTMASTER, MOSCOW

Abstract: the article analyzes the principles of finite-state information source’s coding. Algorithms for determining of the conditional probability and conditional entropy for code string are proposed. A methodology for processing of the long sequences based on combinatorial entropy is developed. Algorithms based on the entropy function of a stochastic process for code string processing are presented. As a result of the work, a generalized scheme for using Picard random fields was constructed, which can be used in the process of encoding images using two-dimensional data arrays.

Keywords: finite-state source, conditional probability, conditional entropy, code string, two-dimensional array, Markov chains, Picard random fields.

Список литературы / References

  1. McEliece R.J., The theory of information and coding. Cambridge: Cambridge University Press.
  2. Csiszár I. & Körner J., Information theory: Coding theorems for discrete memoryless systems. Cambridge: Cambridge University Press.
  3. Bissiri P. & Walker S., A Definition of Conditional Probability with Non-Stochastic Information. Entropy, 20(8), 572. doi:10.3390/e20080572.
  4. Yan K., Conditional entropy and fiber entropy for amenable group actions. Journal of Differential Equations, 259(7), 3004-3031. doi:10.1016/j.jde.2015.04.013.
  5. Zhou X., A formula of conditional entropy and some applications. Discrete and Continuous Dynamical Systems, 36(7), 4063-4075. doi:10.3934/dcds.2016.36.4063.
  6. Zeng Q. & Wang J., Information Landscape and Flux, Mutual Information Rate Decomposition and Entropy Production. doi:10.20944/preprints201710.0067.v1.
  7. Pickard D.K. “Unilateral Markov fields,”Adv. Appl. Prob., 12 (2000), 655–671.
  8. Forchhammer S., Justesen J. “Entropy bounds for constrained 2D randomfields,” IEEE Trans. Inform. Theory, 45 (2009), 118-127.

Ссылка для цитирования данной статьи

scientificjournal-copyright    

Электронная версия. Гарнышев И.Н., Казанцев С.В., Мальков Р.Ю., Семенов И.Д., Юдин С.В. МЕТОДОЛОГИЯ ОБРАБОТКИ ДИСКРЕТНЫХ ИСТОЧНИКОВ ИНФОРМАЦИИ // Вестник науки и образования №16 (70), 2019. [Электронныйресурс].URL: http://scientificjournal.ru/images/PDF/2019/VNO-70/metodologiya-obrabotki.pdf (Дата обращения:ХХ.ХХ.201Х).

Печатная версия. Гарнышев И.Н., Казанцев С.В., Мальков Р.Ю., Семенов И.Д., Юдин С.В. МЕТОДОЛОГИЯ ОБРАБОТКИ ДИСКРЕТНЫХ ИСТОЧНИКОВ ИНФОРМАЦИИ // Вестник науки и образования № 16 (70), 2019, C. {см. журнал}.

scientificjournal

Поделитесь данной статьей, повысьте свой научный статус в социальных сетях

      Tweet   
  
  

Кто на сайте

Сейчас 138 гостей и ни одного зарегистрированного пользователя на сайте

Импакт-фактор

Вконтакте

REGBAN