Меню сайта
Теория информации.
Система управления производством представляет собой совокупность взаимосвязанных элементов (информация, технические средства, специалисты, функции управления), обеспечивающие при их скоординированном взаимодействии реализацию поставленных целей.
Теория информации — это наука, изучающая коммерческие закономерности, связанные с получением, передачей, обработкой и хранением информации. Ее основные положения были сформулированы Сенноном в 40-х годах н.э. Теория информации является необходимым составляющим управления и играет важную роль в научном менеджменте.
Информация — наличие некоторых сведений о состоянии объекта и окружающей внешней среде. Любая информация, чтобы быть переданной, должна быть закодирована. Сигналами могут быть световые или световые импульсы, сигналы и т.д. Чтобы решить задачи информации, нужно научиться измерять количество объема передаваемой информации, пропускную способность канала.
Получила название Энтропии — меры неопределенного состояния физической системы.
Любое сообщение представляет собой совокупность сведений о некоторой физической системе. Степень неопределенности физической системы определяется не только числом его возможных состояний, но и числом его вероятностей.
Рассмотрим некоторую величину X, которое характеризует состояние системы. Тогда
Pi = P(X~xi) — вероятность того, что система при состоянии xi будет определяться этим выражением
xi |
x1 |
x2 |
… |
xn |
Pi |
P1 |
P2 |
… |
Pn |
Для описания степени неопределенной системы не важно численное значение каждого x, а важна степень.
В качестве меры априорного неопределения в теории применяется специальная единица измерения — энтропия. Понятие энтропии является основным
n
H(X) = - S Pi * log Pi
i = 1
Энтропия обладает рядом свойств:
1. Обращается в ноль, когда одно из составляющих достоверно, а другое состояние невозможно;
2. При заданном числе состояний она обращается в максимум, когда эти состояния равновероятны;
3. Обладает свойством адитивности, т.е. когда несколько независимых систем объединены в одну, то энтропия складывается.
xi |
x1 |
x2 |
Pi |
½ |
½ |
Алгоритм энтропии системы равен 1.
Надежность информации.
Надежность передачи информации определяется надежностью соединения элементов в информационной системе.
При последовательном соединении элементов выход из строя хотя бы одного элемента приводит к отказу всей системы. Вероятность безотказной работы будет равняться произведению вероятностей безотказной работы каждого элемента системы.
n n
Pc = P1*P2*…*Pn ; Pc = P Pc ; Pc(t) = P Pi (t) .
i = 1 i = 1
Если в уравнении вероятность безотказной работы одинакова, то
Pc(t) = P Pªi (t), где (a = n)
При параллельном соединении элементов система в целом отказывает при выходе из строя всех элементов. Вероятность отказа системы равно вероятности отказа всех элементов.
qc(t) = q1(t) * q2(t) * … * qn(t) ;
n n
qc(t) = P qi (t) ; Pc(t) = 1- P qi (t) — вероятность
i = 1 i = 1
безотказной работы.
Длительность передачи информации.
k1 k2 kr kn