Тема Основные понятия и определения информатики. Информатика. Предмет и задачи



Скачать 297,41 Kb.
Дата31.10.2016
Размер297,41 Kb.

Тема 1. Основные понятия и определения информатики.

1. Информатика. Предмет и задачи


Термин информатика возник в 60-х годах во Франции для названия области человеческой деятельности, занимающейся автоматизированной обработкой информации с помощью электронных вычислительных машин. Французский термин Informatique образован путем слияния слов Informacion (информация) и Automatique (автоматика) и означает «информационная автоматика или автоматизированная переработка информации». Кроме Франции этот термин используется в ряде стран Восточной Европы. В большинстве стран Западной Европы и США используется термин - Computer Science (наука о средствах вычислительной техники).

Бурное развитие микропроцессорной техники, которая появилась в середине 70-х годов, привело к тому, что информатика выделилась в самостоятельную область науки, занимающейся изучением свойств информации, а также процессами ее передачи и обработки.

Существует множество определений информатики, что связано с многогранностью ее функций, возможностей, средств и методов. Можно предложить такую трактовку:

Информатика – это область человеческой деятельности, связанная с процессами преобразования информации средствами вычислительной техники и взаимодействия этих средств со средой применения.

Часто возникает путаница в понятиях «информатика» и «кибернетика». Между этими двумя дисциплинами провести четкую границу не представляется возможным из-за ее размытости и неопределенности. Существует распространенное мнение, что информатика является одним из направлений кибернетики, но скорее кибернетика является источником для информатики.

Основы кибернетики были заложены трудами по математической логике американского математика Норберта Винера, опубликованными в 1948 г. Предметом кибернетики являются принципы построения и функционирования систем автоматического управления, а задачами – методы моделирования процессов принятия решений, связь между психологией человека и математической логикой, разработка принципов и методов искусственного интеллекта.

Кибернетика – это наука об общих принципах управления в различных системах: технических, биологических, социальных и др.

Информатика появилась благодаря развитию компьютерной техники, базируется на ней и без нее немыслима. Кибернетика же развивается сама по себе, строя различные модели управления объектами, хотя и очень активно использует все достижения компьютерной техники.

Акцент в информатике ставится на свойства информации и аппаратно-программные средства ее обработки.

Акцент в кибернетике – на разработку концепций и построение моделей объектов с использованием, в частности, информационного подхода.


Структура информатики


Информатику можно рассматривать с разных позиций. В узком смысле она состоит из трех взаимосвязанных частей – технических (hardware), программных (software) и алгоритмических (brainware) средств. В широком смысле ее можно рассматривать: как отрасль народного хозяйства, как фундаментальную науку, как прикладную дисциплину.

Как отрасль народного хозяйства информатика состоит из предприятий, где занимаются производством компьютерной техники, программных продуктов и разработкой современной технологии переработки информации.

Как фундаментальная наука информатика занимается разработкой методологии создания информационного обеспечения для процессов управления любыми объектами на базе компьютерных информационных систем. Цель фундаментальных исследований в информатике – получение обобщенных знаний о любых информационных системах, выявление общих закономерностей их построения и функционирования.

Как прикладная дисциплина информатика занимается:



  • изучением закономерностей в информационных процессах (накопление, переработка, распространение);

  • созданием информационных моделей коммуникаций в различных областях человеческой деятельности;

  • разработкой информационных систем и технологий в конкретных областях и выработкой рекомендаций относительно их жизненного цикла.

Информатика существует не сама по себе, она представляет методы и средства другим областям, даже таким, где считается невозможным применение количественных методов из-за неформализуемости процессов и явлений. Особенно следует выделить в информатике методы математического моделирования и методы распознавания образов, практическая реализация которых стала возможной благодаря достижениям компьютерной техники.

Задачи информатики:


  • исследование информационных процессов любой природы;

  • разработка информационной техники и создание новейшей технологии переработки информации на базе полученных результатов исследования информационных процессов;

  • решение научных и инженерных проблем создания, внедрения и обеспечения эффективного использования компьютерной техники и технологии во всех сферах общественной жизни.

Тенденция все большей информированности в обществе в существенной степени зависит от прогресса информатики как единства науки, техники и производства.

2. Измерение и представление информации


Существование области и предмета информатики немыслимо без ее основного ресурса – информации. Термин информация происходит от латинского слова informatio, что означает осведомление, разъяснение, изложение. Существование множества определений информации обусловлено сложностью, специфичностью и многообразием подходов к толкованию сущности этого понятия. Существуют три наиболее распространенные концепции информации, каждая из которых по-своему объясняет ее сущность.

Первая концепция (концепция К. Шеннона), отражая количественно-информационный подход, определяет информацию как меру неопределенности (энтропию) события. Количество информации в том или ином случае зависит от вероятности его получения: чем более вероятным является сообщение, тем меньше информации содержится в нем. Этот подход, хоть и не учитывает смысловую сторону информации, оказался весьма полезным в технике связи и вычислительной технике и послужил основой для измерения информации и оптимального кодирования сообщений. Кроме того, он представляется удобным для иллюстрации такого важного свойства информации, как новизна.

При таком понимании информация – это снятая неопределенность, или результат выбора из набора возможных альтернатив.



Вторая концепция рассматривает информацию как свойство материи. Ее появление связано с развитием кибернетики и основано на утверждении, что информацию содержат любые сообщения, воспринимаемые человеком или приборами. Наиболее ярко и образно эта концепция информации выражена академиком В.М. Глушковым. Он писал, что «информацию несут не только испещренные буквами листы книги или человеческая речь, но и солнечный свет, складки горного хребта, шум водопада, шелест травы».

То есть, информация как свойство материи создает представление о ее природе и структуре, упорядоченности и разнообразии.



Третья концепция основана на логико-семантическом подходе, при котором информация трактуется как знание, причем не любое знание, а та его часть, которая используется для ориентировки, для активного действия, для управления и самоуправления.

Рассмотренные подходы в определенной мере дополняют друг друга, освещают различные стороны сущности понятия информации и облегчают тем самым систематизацию ее основных свойств. Обобщив данные подходы, можно дать следующее определение информации:



Информация - это сведения, снимающие неопределенность об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования. Сведения - это знания выраженные в сигналах, сообщениях, известиях, уведомлениях и т.д.

Сигналы  Данные  Методы  Информация


С позиции материалистической философии информация есть отражение реального мира.

Все объекты в окружающем нас мире являются материальными. Материя существует в двух формах: в виде материальных тел и в виде энергетических полей. При непрерывном взаимодействии полей и тел происходит энергетический обмен.

Все виды энергообмена сопровождаются появлением сигналов. Сигналы можно регистрировать. Результат регистрации сигналов информатика рассматривает как данные.

Данные несут в себе информацию о событиях, происшедших в материальном мире. Это тоже объекты материальной природы. Данные всегда объективны. Данные всегда можно воспроизвести каким-либо образом, так как есть средства их зарегистрировать.

Для того чтобы данные стали информацией, обычно требуется не один, а множество взаимосвязанных методов.

Например, обычный текст, напечатанный темными буквами на светлом фоне.

1. Зрение. Естественный метод присущий большинству людей.

2. Достаточное освещение. Физический метод, основанный на использовании естественного или искусственного света.

3. Знание азбуки языка, на котором написан текст (систему кодирования звуков).

4. Знание языка, на котором написан текст.

5. Понимание терминов и понятий, использованных в тексте.

Для определения информации очень важно понять, что информация образуется из данных, но ее содержательная часть зависит не только от того, какие сигналы были зарегистрированы при образовании данных, но и от того, какими методами данные воспроизводятся.

Наблюдая за состязаниями бегунов, с помощью секундомера можно засечь начальное и конечное положение стрелки прибора за время забега. Это регистрация данных. Чтобы получить информацию о времени забега, необходимо знать цену деления шкалы секундомера, и то, как ее умножить на величину перемещения, то есть применить некоторый метод.

Прослушав передачу на незнакомом языке, можно получить данные, но не информацию, так как язык неизвестен. Можно записать эти данные на лист бумаги или магнитную ленту. Изменится форма представления данных, произойдет новая регистрация, соответственно образуются новые данные. Извлечь информацию из них можно, попробовав подобрать адекватный метод для новых данных, например, взяв соответствующий словарь иностранных слов.


Методы воспроизведения и обработки данных


Естественные методы. Методы, основанные на органах чувств. Логическое мышление. Воображение, сравнение, сопоставление, анализ, прогнозирование и т.п.

Аппаратные методы. Аппаратные методы – это всегда устройства (приборы). Магнитофоны, телефоны, микроскопы, видеомагнитофоны и т.д. С точки зрения информатики эти устройства выполняют общую функцию – преобразуют данные из формы, недоступной для естественных методов человека, в форму, доступную для них. Не всегда одни устройства могут обрабатывать данные созданные другими приборами. В таких случаях применяют специальные устройства преобразования данных, и говорят не о преобразовании формы данных, а о преобразовании их формата (модемы, бытовые видеокамеры).

Программные методы. Широкое внедрение средств вычислительной техники позволяет автоматизировать обработку самых разных видов данных с помощью компьютера. Компьютер – это прибор особого типа, в котором одновременно сочетаются аппаратные и программные методы обработки и представления информации. Эти методы составляют предметную область информатики.

Если предположить, что информация – это динамический объект, не существующий в природе сам по себе, а образующийся в ходе взаимодействия данных и методов, и существующий столько, сколько длится это взаимодействие, а все остальное время пребывающий в виде данных, то можно дать такое определение:



Информация - это продукт взаимодействия данных и методов, рассмотренный в контексте этого взаимодействия.

Контекстным (адекватным) считается тот метод, который является общепринятым для работы с данными определенного типа. Этот метод должен быть известен как создателю данных, так и потребителю информации.

Для графических данных (иллюстраций) контекстным является метод наблюдения, основанный на зрении. В этом случае имеется в виду визуальная или графическая информация. Для текстовых данных подразумевается контекстный метод чтения, основанный на зрении, знании азбуки и языка. В этом случае говорят о текстовой информации.

Для данных, представленных в виде радиоволн, контекстными являются аппаратные методы преобразования данных и потребления информации с помощью радиоприемника или телевизора. Поэтому часто используются понятия телевизионная информация, информационная программа, информационный выпуск и т.п.

Для данных, хранящихся в компьютере, передающихся по сетям, контекстными являются аппаратные и программные методы вычислительной техники. Их еще называют средствами информационных технологий, которые входят в предметную область информатики. В этом случае используется понятие компьютерной информации.


Информационный процесс


Информация динамична, она существуют непродолжительное время – столько, сколько продолжается взаимодействие данных и методов во время ее создания, потребления или преобразования. Как только взаимодействие завершается, опять в наличии данные, но уже представленные в другой форме.

Пока идет лекция студенты, используя наблюдение и прослушивание, получают информацию от преподавателя. Лекция закончилась, информация сохраняется в виде данных в коре головного мозга. На экзамене у того же преподавателя идет совершенно другой информационный процесс, студент рассказывает содержание темы, но при этом преподаватель получает совершенно другие данные и применяет к ним совершенно иные методы. В результате он получает иную информацию, которая преобразуется в данные, хранящиеся в зачетке и в ведомости на экзамен.

Подобная схема действует и в технике. Например, информационный процесс на телевидении:

Аппаратные методы: видеокамера – передающее устройство – антенна-предатчик – спутник – антенна-приемник – телевизор.

Естественные методы: зрение – головной мозг.

Преобразование данных: световой поток – заряды - электромагнитные сигналы - радиоволны – световой поток – информация – данные.

На всех этапах информационного процесса идет непрерывная регистрация сигналов различной физической природы и их взаимодействие с самыми разнообразными методами.

Информационный процесс – это всегда цикл образования информации из данных и немедленного их сохранения в виде новых данных. Информация существует непродолжительное время, но информационный процесс длится столько, сколько существуют носители данных, представляющие информацию.

Меры информации


Понимая информацию как один из стратегических ресурсов общества, необходимо уметь его оценивать как с качественной, так и с количественной стороны. Здесь возникают проблемы из-за нематериальной природы этого ресурса и субъективного восприятия конкретной информации каждым конкретным человеком.

Для измерения информации вводятся два параметра: количество информации I и объем данных Vд. Эти параметры имеют разные выражения и интерпретацию в зависимости от рассматриваемой меры количества информации и объема данных.



Синтаксическая мера информации. Эта мера оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.

Объем данных Vд в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных:

  • в двоичной системе счисления единица измерения – бит (bit – binary digit) или более укрупненная единица байт, равная 8 бит. Сообщение, записанное двоичным кодом 10111011, имеет объем данных 8 бит или 1 байт.

  • в десятичной системе счисления единица измерения – дит (десятичный разряд). Сообщение, записанное числом 275903 имеет объем данных 6 дит.

Количество информации I на синтаксическом уровне определяется с помощью понятия неопределенности состояния (энтропии) системы.

Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения о системе α. Мерой его неосведомленности о системе является функция H(α), которая в то же время служит и мерой неопределенности состояния системы. После получения некоторого сообщения β получатель приобрел некоторую дополнительную информацию Iβ(α), уменьшившую его априорную неосведомленность так, что апостериорная (после получения сообщения β) неопределенность состояния системы стала Hβ(α). Тогда количество информации Iβ(α) о системе, полученной в сообщении β, определится как Iβ(α) = H(α) - Hβ(α), т.е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы.

Если конечная неопределенность Hβ(α) обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации Iβ(α) = H(α). Иными словами, энтропия системы H(α) может рассматриваться как мера недостающей информации.

Энтропия системы H(α), имеющая N возможных состояний, согласно формуле Шеннона, равна



где Pi – вероятность того, что система находится в i-состоянии.

Для случая, когда все состояния системы равновероятны, т.е. их вероятности равны Pi=1/N, ее энтропия определяется соотношением.

Часто информация кодируется числовыми кодами в той или иной системе счисления, особенно это актуально при представлении информации в компьютере. Естественно, что одно и то же количество разрядов в разных системах счисления может передать разное число состояний отображаемого объекта, что можно представить в виде соотношения



N = mn,

где N – число всевозможных отображаемых состояний;



m – основание системы счисления (разнообразие символов, применяемых в алфавите);

n – число разрядов (символов) в сообщении.

Пример. По каналу связи передается n-разрядное сообщение, использующее m различных символов. Так как количество всевозможных кодовых комбинаций будет N = mn, то при равновероятности появления любой из них количество информации, приобретенной абонентом в результате получения сообщения, будет I = log N = n log m – формула Хартли.



Если в качестве основания логарифма принять m, то I = n. В данном случае количество информации (при условии полного априорного незнания абонентом содержания сообщения) будет равно объему данных I = Vд, полученных по каналу связи. Для неравновероятностных состояний системы всегда I < Vд = n.

Наиболее часто используются двоичные и десятичные логарифмы. Единицами измерения в этих случаях будут соответственно бит и дит.

Коэффициент (степень) информативности (лаконичность) сообщения определяется отношением количества информации к объему данных, т.е.

С увеличением Y уменьшаются объемы работы по преобразованию информации, для этого разрабатываются специальные методы оптимального кодирования информации.



Семантическая мера информации. Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Для этого используют понятие тезаурус пользователя.

Тезаурус – это совокупность сведений, которыми располагает пользователь или система.

В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя Sp изменяется количество семантической информации Ic, воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус.



График зависимости количества семантической информации, воспринимаемой потребителем, от его тезауруса Ic = f(Sp)

Два предельных случая, когда количество семантической информации Ic равно 0:


  • при Sp  0 пользователь не воспринимает, не понимает поступающую информацию;

  • при Sp   пользователь все знает, и поступающая информация ему не нужна.

Максимальное количество Ic потребитель приобретает при согласовании ее смыслового содержания S со своим тезаурусом Sp (Sp = Sp opt), когда поступающая информация понятна пользователю и несет ему ранее неизвестные (отсутствующее в тезаурусе) сведения. Следовательно новых знаний, получаемых пользователем, является величиной относительной. Одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным для пользователя некомпетентного. При оценке содержательного аспекта информации необходимо стремиться к согласованию величин S и Sp.

Относительной мерой количества семантической информации может служить коэффициент содержательности C, который определяется как отношение количества семантической информации к ее объему:



Прагматическая мера информации. Эта мера определяет полезность информации (ценность) для достижения пользователем поставленной цели, Эта мера также величина относительная, обусловленная особенностями использования этой информации в той или иной системе.

Пример. В экономической системе ценность информации можно определить приростом экономического эффекта ее функционирования, достигнутым благодаря использованию этой информации для управления системой.



Мера информации

Единицы измерения

Примеры
(для компьютерной области)


Синтаксическая:

шенноновский подход

компьютерный подход


Степень уменьшения неопределенности

Единицы представления информации



Вероятность события

Бит, байт, Кбайт и т.д.



Семантическая

Тезаурус

Экономические показатели



ППП, ПК, компьютерные сети и т.д.

Рентабельность, производительность, коэффициент амортизации и т.д.



Прагматическая

Ценность использования

Емкость памяти, производительность компьютера, скорость передачи данных и т.д.

Денежное выражение

Время обработки информации и принятия решений

Единицы измерения информации


В компьютерной технике используется двоичная система счисления. Ее выбор определяется реализацией аппаратуры ЭВМ (электронными схемами), в основе которой лежит использование двоичного элемента хранения данных – триггера. Он имеет два устойчивых состояния (~ вкл., выкл.), условно обозначаемых как 0 и 1 и способен хранить минимальную порцию данных равную 1 биту. Бит выступает в качестве элементарной единицы количества или объема хранимой (передаваемой) информации безотносительно к ее содержательному смыслу.

Если взять n триггеров, то количество всевозможных комбинаций нулей и единиц в них равно 2n. Формально появление 0 или 1 в ячейке можно рассматривать как равновероятные исходы событий, тогда, применив формулу Хартли I = log2 2n = n, можно сделать вывод, что в n триггерах можно хранить n бит информации.

Количество информации в 1 бит является слишком малой величиной, поэтому наряду с единицей измерения информации 1 бит, используется более крупная единица
1 байт, 1байт =8 бит =23 бит. В компьютерной технике наименьшей адресуемой единицей является 1 байт.

В настоящее время в компьютерной технике при хранении и передаче информации используются в качестве единиц объема хранимой (или передаваемой) информации более крупные единицы:

1 килобайт (1 Кбайт) = 210 байт = 1024 байт,

1 мегабайт (1 Мбайт) = 210 Кбайт = 1024 Кбайт = 220 байт,

1 гигабайт (1 Гбайт) = 210 Мбайт=1024 Мбайт = 230 байт,

1 терабайт (1 Тбайт) = 210 Гбайт = 1024 Мбайт = 240 байт,

1 петабайт (1 Пбайт) = 210 Тбайт = 1024 Тбайт = 250 байт.

1 экзабайт = 210 Пбайт =260 байт.



В битах, байтах, килобайтах, мегабайтах и т.д. измеряется также потенциальная информационная ёмкость оперативной памяти и запоминающих устройств, предназначенных для хранения данных (жесткие диски, дискеты, CD-ROM и т.д.).

Качественные свойства информации


Репрезентативность информации связана с правильностью ее отбора и формирования в целях адекватного отражения свойств объекта.

Содержательность информации отражает семантическую емкость, равную отношению количества семантической информации в сообщении к объему обрабатываемых данных, т.е. С увеличением содержательности информации для получения одних и тех же сведений требуется преобразовывать меньший объем данных.

Достаточность (полнота) информации означает, что она содержит минимальный, но достаточный для принятия правильного решения состав. Это понятие связано с ее смысловым содержанием (семантикой) и прагматикой. Как неполная, так и избыточная информация снижает эффективность принимаемых пользователем решений.

Доступность информации восприятию пользователя обеспечивается выполнением соответствующих процедур ее получения и преобразования. Это достигается, например, путем согласования ее семантической формы с тезаурусом пользователя.

Актуальность информации определяется степенью сохранения информации для управления в момент ее использования и зависит от динамики изменения ее характеристик и от интервала времени, прошедшего с момента возникновения данной информации.

Своевременность информации означает ее поступление не позже заранее назначенного времени, согласованного с временем решения поставленной задачи.

Точность информации определяется степенью близости получаемой информации к реальному состоянию объекта, процесса, явления и т.п.

Достоверность информации определяется ее свойством отражать реально существующие объекты с необходимой точностью.

Устойчивость информации отражает ее способность реагировать на изменения исходных данных без нарушения необходимой точности. Это свойство также как и репрезентативность обусловлено выбранной методикой отбора информации и ее формирования.

Классификация информации


Любая классификация всегда относительна. Один и тот же объект может быть классифицирован по разным признакам или критериям. Часто встречается ситуации, когда в зависимости от условий внешней среды объект может быть отнесен к разным классификационным группировкам. Эти рассуждения особенно актуальны при классификации видов информации без учета ее предметной ориентации, так как она часто может использоваться в разных условиях, разными потребителями, для разных целей.

По форме

По области возникновения

По способам восприятия

По общественному значению

По способу кодирования

Дискретная

Аналоговая



Элементарная

Биологическая

Социальная


Визуальная

Аудиальная

Тактильная

Обонятельная

Вкусовая


Массовая

Специальная

Личная


Текстовая

Числовая


Графическая

Музыкальная

Комбинированная


Дискретная – это последовательность символов, характеризующая прерывистую, изменяющуюся величину (количество дорожно-транспортных происшествий, количество тяжких преступлений и т.п.);

Аналоговая или непрерывная – это величина, характеризующая процесс, не имеющий перерывов или промежутков (температура тела человека, скорость автомобиля на определенном участке пути и т.п.).

Элементарная (механическая) информация отражает процессы, явления неодушевленной природы.

Биологическая информация отражает процессы животного и растительного мира.

Социальная информация отражает процессы человеческого общества.

Визуальная информация передается видимыми образами и символами;

Аудиальная информация передается звуками;

Тактильная информация передается ощущениями;

Органолептическая информация передаваемая запахами и вкусами;

Машинная информация выдается и воспринимается средствами вычислительной техники.

Личная информация предназначена для конкретного человека (знания, умения, навыки, интуиция).

Массовая информация предназначена для любого желающего ее пользоваться (обыденная, общественно-политическая, научно-популярная, эстетическая и т.д.)

Специальная информация (научная, производственная, техническая, управленческая) предназначена для использования узким кругом лиц, занимающихся решением сложных специальных задач в области науки, техники, экономики.

Текстовая информация основана на использовании комбинаций символов. Здесь так же, как и в предыдущей форме, используются символы: буквы, цифры, математические знаки. Однако информация заложена не только в этих символах, но и в их сочетании, порядке следования. Так, слова КОТ и ТОК имеют одинаковые буквы, но содержат различную информацию. Благодаря взаимосвязи символов и отображению речи человека текстовая информация чрезвычайно удобна и широко используется в деятельности человека: книги, брошюры, журналы, различного рода документы, аудиозаписи кодируются в текстовой форме.

Графическая информация основана на использовании произвольного сочетания в пространстве графических примитивов. К этой форме относятся фотографии, схемы, чертежи, рисунки.

Пример схемы классификации информации циркулирующей в организации (фирме).





Входная информация поступает в фирму или ее подразделение.

Выходная – поступает из фирмы в другую фирму, организацию

Внутренняя информация возникает внутри объекта, внешняя – за его пределами.

Первичная возникает непосредственно в процессе деятельности объекта и регистрируется на начальной стадии.

Вторичная получается в результате обработки первичной и может быть промежуточной или результатной.

Промежуточная используется в качестве исходных данных для последующих расчетов.

Результатная получается в процессе обработки первичной и промежуточной информации и используется для выработки управленческих решений.

Текстовая – это совокупность алфавитных, цифровых и специальных символов, с помощью которых представляется информация на физическом носителе.

Графическая – это различного рода графики, диаграммы, схемы, рисунки и т.д.

Переменная информация отражает количественные и качественные характеристики производственно-хозяйственной деятельности фирмы. Она может меняться для каждого случая как по назначению, так и по количеству.

Постоянная (условно-постоянная) – это информация неизменная и многократно используемая в течение длительного периода времени. Она может быть справочной, нормативной, плановой.

По функциям управления обычно классифицируют экономическую информацию.



Плановая – информация о параметрах объекта управления на будущий период.

Нормативно-справочная содержит различные нормативные и справочные данные. Ее обновление происходит достаточно редко.

Учетная характеризует деятельность фирмы за определенный прошлый период времени.

Оперативная (текущая) используется в оперативном управлении и характеризует производственные процессы в текущий период времени. От того, насколько быстро и качественно проводится ее обработка, во многом зависит успех фирмы на рынке.

Хранение информации


Хранение информации — это способ распространения информации в пространстве и времени.

Способ хранения информации зависит от ее носителя (книга — библиотека, картина — музей, фотография — альбом).

Этот процесс такой же древний, как и жизнь человеческой цивилизации. Уже в древности человек столкнулся с необходимостью хранения информации: зарубки на деревьях, чтобы не заблудиться во время охоты; счет предметов с помощью камешков, изображение животных и эпизодов охоты на стенах пещер.

С рождением письменности возникло специальное средство фиксирования и распространения мысли в пространстве и во времени. Родилась документированная информация — рукописи и рукописные книги, появились своеобразные информационно-накопительные центры — древние библиотеки и архивы. Постепенно письменный документ стал и орудием управления (указы, приказы, законы).

Вторым информационным скачком явилось книгопечатание. С его возникновением наибольший объем информации стал храниться в различных печатных изданиях, и для ее получения человек обращается в места их хранения (библиотеки, архивы и т. д.).

В жизни человека процесс длительного хранения информации играет большую роль и подвергается постоянному совершенствованию.

Когда объем накапливаемой информации возрастает настолько, что ее становится просто невозможно хранить в памяти, человек начинает прибегать к помощи различного рода записных книжек, указателей и т. д.

Хранение очень больших объемов информации оправдано только при условии, если поиск нужной информации можно осуществить достаточно быстро, а сведения получить в доступной форме.



Информационная система — это хранилище информации, снабженное процедурами ввода, поиска и размещения и выдачи информации. Наличие таких процедур — главная особенность информационных систем, отличающих их от простых скоплений информационных материалов.

Совокупность устройств, предназначенных для автоматической и автоматизированной обработки данных, называют вычислительной техникой. Конкретный набор взаимодействующих между собой устройств и программ, предназначенных для обслуживания одного рабочего участка, называют вычислительной системой. Центральным устройством большинства вычислительных систем является компьютер.



Компьютер – это электронный прибор, предназначенный для автоматизации создания, хранения, обработки и транспортировки данных.

Тема 2. Математические основы информатики.

Кодирование данных двоичным кодом


Для автоматизации работы с данными, относящимися к различным типам, очень важно унифицировать их форму представления. Для этого обычно используют прием кодирования, т.е. выражение данных одного типа через данные другого типа.

Примеры систем кодирования: человеческие языки, азбуки (кодирование языка с помощью графических символов), запись математических выражений, телеграфная азбука Морзе, код Брайля для слепых, морская флажковая азбука и т.п.

Своя система кодирования существует и в вычислительной технике – она называется двоичным кодированием и основана на представлении данных последовательностью всего двух знаков: 0 и 1. Эти знаки называются двоичными цифрами или бит.

Одним битом можно выразить два понятия: 0 или 1 (да иди нет, черное или белое, истина или ложь и т.п.). Если увеличить количество битов до двух, то уже можно выразить четыре различных понятия – 00 01 10 11. Тремя битами можно закодировать уже восемь различных понятий –

000 001 010 100 101 110 101 111.

Увеличивая на единицу количество разрядов в системе двоичного кодирования, можно увеличить в два раза количество значений, которое можно закодировать:



N=2I, где I – число разрядов, N - количество значений.

Компьютер может обрабатывать числовые, текстовые, графические, звуковые и видео данные. Все эти виды данных кодируются в последовательности электрических импульсов: есть импульс (1), нет импульса (0), т.е. в последовательности нулей и единиц. Такие логические последовательности нулей и единиц называются машинным языком.


Системы счисления


При работе с компьютерами приходится параллельно использовать несколько позиционных систем счисления – двоичную, восьмеричную, шестнадцатеричную.

Системы счисления – принятый способ наименования и записи чисел с помощью символов, имеющих определенные количественные значения.

Все системы счисления можно разделить на два класса: позиционные и непозиционные. В позиционной системе счисления количественное значение каждой цифры зависит от ее места (позиции) в числе. В непозиционных системах счисления значение цифры не зависит от места, которое он занимает в числе. Самый известный пример – римская система счисления. В этой системе счисления используется 7 знаков

I (1) V (5) X (10) L (50) C (100) D(500) M(1000)

Например, III (три) LIX (59) DLV (555)

Для записи чисел в различных системах счисления используется некоторое количество отличных друг от друга знаков. Число таких знаков в позиционной системе счисления называется основанием системы счисления.

Некоторые системы счисления



Основание

Системы счисления

Знаки

2

Двоичная

0, 1

5

Пятеричная

0, 1, 2, 3, 4

8

Восьмеричная

0, 1, 2, 3, 4, 5, 6, 7

10

Десятичная

0, 1, 2, 3, 4, 5, 6, 7, 8, 9

16

Шестнадцатеричная

0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E,F

В позиционной системе счисления число может быть представлено в виде суммы произведений коэффициентов на степени основания системы счисления.

Например, 23,43(10) = 2*101 + 3*100 + 4*10-1 + 3*10-2

Т. е. значение каждого знака в числе зависит от позиции, которую занимает знак в записи числа. В примере первый знак 3 означает число единиц, второй – число сотых долей единицы.

692(10) = 6*102 + 9*101 + 2*100

1101(2) = 1*23 + 1*22 + 0*21 + 1*20 = 13(10)

112(3) = 1*32 + 1*31 + 2*30 = 14(10)

341,5(8) = 3*82 + 4*81 + 1*80 + 5*8-1 = 225,125(10)

A1F,4(16) = A*162 + 1*161 + F*160 + 4*16-1 = 2591,06(10)

Если в приведенных выше примерах произвести арифметические действия в правой части равенства, то получится число в десятичной системе счисления. Это и есть способ перевода из любой системы счисления в десятичную.

Чтобы перевести целую часть числа из десятичной системы в систему с основанием В, необходимо разделить ее на В. Остаток даст младший разряд числа. Полученное при этом частное необходимо вновь разделить на В – остаток даст следующий разряд числа и т.д. Для перевода дробной части ее необходимо умножить на В. Целая часть, полученного произведения будет первым (после запятой, отделяющей целую часть от дробной) знаком. Дробную часть произведения необходимо вновь умножить на В. Целая часть полученного числа будет следующим знаком и т.д.


Двоичная система счисления


Особая значимость двоичной системы счисления в информатике определяется тем, что внутреннее представление любой информации в компьютере является двоичным, т.е. описываемым наборами только из двух знаков (0 и 1).
Перевод из десятичной системы в двоичную

Целая и дробная части переводятся порознь. Для перевода целой части числа необходимо ее разделить на основание системы счисления 2 и продолжать делить частные от деления до тех пор пока частное не станет равным 0. Значение получившихся остатков, взятые в обратной последовательности, образуют искомое двоичное число.

Например,

25 : 2 = 12 (1),

12 : 2 = 6 (0),

6 : 2 = 3 (0),

3 : 2 = 1 (1),

1 : 2 = 0 (1).

25(10) = 11001(2)

Для перевода дробной части надо умножить ее на 2. Целая часть произведения будет первой цифрой числа в двоичной системе. Затем, отбрасывая у результата дробную часть, вновь умножаем на 2 и т.д. Конечная десятичная дробь при этом вполне может стать бесконечной (периодической) двоичной.

Например,

0,73 * 2 = 1,46 (целая часть 1)

0,46 * 2 = 0,92 (целая часть 0)

0,92 * 2 = 1,84 (целая часть 1)

0,84 * 2 = 1,68 (целая часть 1) и т.д. 0,73(10) = 0,1011…(2)



Арифметические операции с двоичными числами

При арифметических операциях используются таблицы сложения и умножения и вычитания в двоичной системе

+

0

1




*

0

1




-

0

1

0

0

1




0

0

0




0 (10)

0

1

1

1

10




1

0

1




1

1

0

При двоичном сложении 1 + 1 возникает перенос 1 в старший разряд, как и в десятичной арифметике. Например,

При двоичном вычитании необходимо помнить, что занятая в ближайшем разряде 1, дает две единицы младшего разряда. Если в соседних старших разрядах стоят нули, то 1 занимается через несколько разрядов. При этом единица, занятая в ближайшем значащем старшем разряде, дает две единицы младшего разряда и единицы во всех нулевых разрядах, стоящих между младшим и тем старшим разрядом, у которого бралась единица.

Вычтем 174 из 197



Деление двоичных чисел происходит с использованием двоичных таблиц умножения и вычитания. Разделим 430 на 10


Восьмеричная и шестнадцатеричная системы счисления


Перевод чисел из десятичной системы в восьмеричную производится также как и в двоичную с помощью умножения и деления, только не на 2, а на 8.

Например, 58,32(10)

58 : 8 = 7 (2 в остатке)

7 : 8 = 0 (7 в остатке)

0,32 * 8 = 2,56

0,56 * 8 = 4,48

0,48 * 8 = 3,84, …

58,32(10) = 72,243…(8)



Перевод чисел из десятичной системы счисления в 16-ричную производится аналогично. 567(10)0 = 237(16)

Соответствие чисел в различных системах счисления

Десятичная

Шестнадцатеричная

Восьмеричная

Двоичная

0

0

0

0

1

1

1

1

2

2

2

10

3

3

3

11

4

4

4

100

5

5

5

101

6

6

6

110

7

7

7

111

8

8

10

1000

9

9

11

1001

10

A

12

1010

11

B

13

1011

12

C

14

1100

13

D

15

1101

14

E

16

1110

15

F

17

1111

Для перевода целого двоичного числа в восьмеричное необходимо разбить его справа налево на группы по 3 цифры (самая левая группа может содержать менее трех двоичных цифр), а затем каждой группе поставить в соответствие ее восьмеричный эквивалент. Такие группы называют двоичными триадами.

Например,

11011001 = 11 011 001 = 331(8)

Перевод целого двоичного числа в шестнадцатеричное производится путем разбиения данного числа на группы по 4 цифры – двоичные тетрады.

1100011011001 = 1 1000 1101 1001 = 18D9(16)

Для перевода дробных частей двоичных чисел в восьмеричную или шестнадцатеричную системы аналогичное разбиение на триады или тетрады производится от запятой вправо (с дополнением недостающих последних цифр нулями)

0,1100011101(2) = 0,110 001 110 100 = 0,6164(8)

0,1100011101(2) = 0,1100 0111 0100 = С74(16)

Перевод восьмеричных (шестнадцатеричных) чисел в двоичные производится обратным путем – сопоставлением каждому знаку числа соответствующей тройки (четверки) двоичных цифр.

А1F(16) = 1010 0001 1111(2)

127(8) = 001 010 111(2)



Простота подобных преобразований связана с тем, что числа 8 и 16 являются целыми степенями числа 2. Этой простотой объясняется популярность восьмеричной и шестнадцатеричной систем счисления.

Поделитесь с Вашими друзьями:


База данных защищена авторским правом ©grazit.ru 2017
обратиться к администрации

    Главная страница