Министерство образования и молодежной политики Ставропольского края

Государственное бюджетное профессиональное образовательное учреждение  «Многопрофильный техникум имени казачьего генерала »

Конспект лекций по дисциплине

ОУД. 07 «ИНФОРМАТИКА» 

Г. Михайловск. 2016 год

       

Оглавление

Пояснительная записка........................................................................................................ 3

Лекция 1. Введение в дисциплину, предмет и содержание курса. Основные понятия и определения. Техника безопасности при работе за компьютером……………………..4

Лекция 2. Роль информационной деятельности в современном обществе…................10

Лекция 3. Этапы развития технических средств и информационных ресурсов ………12

       

Лекция 4. Правовые нормы, относящиеся к информационной деятельности................15

  Лекция 5. Формы и виды информации. Её свойства……………………………………17

Лекция 6. Системы счисления. ...........................................................................................21

Лекция 7. Принцип открытой архитектуры ПК. Многообразие компьютеров. Многообразие внешних устройств, подключаемых к компьютеру. Графический интерфейс Windows.25

  Лекции 8. Примеры комплектации компьютерного рабоче..............................................28

Лекция 9. Безопасность, гигиена, эргономика, ресурсосбережение. ...............................32

Литература...............................................................................................................................34

НЕ нашли? Не то? Что вы ищете?

Пояснительная записка

Конспект лекций по дисциплине «Информатика»  ориентирован на выполнение Федерального государственного образовательного стандарта среднего профессионального образования, реализующего среднее (полное) образование, в пределах образовательных программ среднего профессионального образования. 

Лекции предназначены для студентов специальностей 23.02.03 «Техническое обслуживание и ремонт автомобильного транспорта», 19.02.10 «Технология продукции общественного питания», 15.01.05 «Сварщик (ручной и частично механизированной сварки (наплавки», 08.01.08 «Мастер отделочных строительных работ», 19.01.17 «Повар, Кондитер»  Цель разработки – ознакомить учащихся с основной теоретической информацией  по дисциплине «Информатика». Доступность и краткость изложения позволяют быстро и легко получить основные знания дисциплине.

В результате освоения материала учащиеся должны будут знать:

    методику работы с графическим редактором электронно-вычислительных машин при решении профессиональных задач; основы применения системных программных продуктов для решения профессиональных задач на электронно-вычислительных машинах.

       

Лекция 1. Введение в информатику 

1.1. Что такое инфоpматика?

Термин "информатика" (франц. informatique) происходит от французских слов information (информация) и automatique (автоматика) и дословно означает "информационная автоматика". 

Широко распространён также англоязычный вариант этого термина — "Сomputer science", что означает буквально "компьютерная наука". 

Инфоpматика — это дисциплина, изучающая структуру информации, ее свойства и операций с ней, такие как: её создание, хранение, поиск, преобразование, передачу и применение. 

Официально за понятием "информатика" закреплены 2 основные области научной деятельности:

    разработка, создание использование и обслуживание систем обработки информации, включая компьютеры и их программное обеспечение, различные аспекты компьютеризации — массового внедрения компьютерной техники во все области жизни людей.

Таким образом, информатика базируется на компьютерной технике и немыслима без нее. 

Диапазон применения информатики очень широк и включает следующие направления 

    разработка вычислительных систем и программного обеспечения; изучение процессов, передачи, приёма, преобразования и хранения информации на базе теории информации; создание программ, реализующих логику, обучение, понимание речи, визуальное восприятие, игры и др. на базе методов искусственного интеллекта; анализ назначения проектируемой системы и требований к ней на базе системного анализа; методы машинной графики, анимации, средства мультимедиа; средства телекоммуникации, в том числе, глобальные компьютерные

сети;

    разнообразные приложения, охватывающие производство, науку, образование, медицину, торговлю, сельское хозяйство и все другие виды деятельности.

Информатику обычно представляют состоящей из двух частей: 

    технические средства; программные средства.

Технические средства, то есть аппаратура компьютеров, в английском языке обозначаются словом Hardware, которое буквально переводится как "твёрдые изделия". 

А для программных средств создано слово Software (буквально — "мягкие изделия"), которое подчёркивает равнозначность программного обеспечения и самой машины и вместе с тем подчёркивает способность программного обеспечения модифицироваться.

Программное обеспечение — это совокупность всех программ, используемых компьютерами, а также их создание и применение. 

Помимо этих двух общепринятых ветвей информатики выделяют ещё одну существенную ветвь — алгоритмические средства. Для неё предложено название Brainware (от англ. brain — интеллект). Эта ветвь связана с разработкой алгоритмов, методов и приёмов их построения. 

Алгоритмы — это совокупность правил выполнения последовательных действий, приводящих к решению задачи. 

Нельзя приступить к программированию, не разработав предварительно алгоритм решения задачи. 

Роль информатики в развитии общества чрезвычайно велика. С ней связано начало революции в области обработки информации. Эта революция, коренным образом преобразует не только сферу материального производства, но и интеллектуальную, духовную сферы жизни. 

Рост производства компьютерной техники, развитие информационных сетей, создание новых информационных технологий приводят к значительным изменениям во всех сферах общества: в производстве, науке, образовании, медицине и т. д.

1.2. Что такое информация?

Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение. 

По способу передачи и восприятия различают следующие виды информации: 

    информацию, передаваемую видимыми образами и символами, называют визуальной,  звуками – аудиальной,  ощущениями – тактильной,  запахом и вкусом – органолептической,  а выдаваемую или воспринимаемую ЭВМ – машинной.

Формы представления информации: непрерывная и дискретная. Непрерывная информация  характеризует процесс не имеющий перерывов или промежутков ( температура

тела). 

Дискретная – последовательность символов, характеризующая прерывистую изменяющуюся величину (речь). 

Информация — это настолько общее и глубокое понятие, что его нельзя объяснить одной фразой. В это слово вкладывается различный смысл в технике, науке и в житейских ситуациях. 

В обиходе информацией называют любые сведения, которые кого-либо интересуют. 

Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т. п. "Информировать" в этом смысле означает "сообщить нечто, неизвестное раньше". 

В науке и технике информация представляет собой сведения об объектах и явлениях окружающей среды, которые воспринимаются информационными системами (живыми организмами, управляющими машинами и др.)

При компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т. п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. 

Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т. п.) может содержать разное количество информации для разных людей — в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему. 

Так, сообщение на незнакомом языке, не несёт никакой новой информации человеку, не знающему этого языка, но может быть высокоинформативным для человека, владеющего им.

Сообщение, на знакомом языке, также не содержит никакой новой информации, если его содержание непонятно или уже известно. 

Информация - характеристика не сообщения, а соотношения между сообщением и его потребителем. Без потребителя, бессмысленно говорить об информации. 

1.3. В каком виде существует информация?

Информация может существовать в самых разнообразных формах: 

    в виде текстов, рисунков, чертежей, фотографий; в виде световых или звуковых сигналов; в виде радиоволн; в виде электрических и нервных импульсов; в виде магнитных записей; в видежестов и мимики; в виде запахов и вкусовых ощущений; в виде хромосом, передающих по наследству признаки и свойства организмов и т. д.

Материальные или нематериальные предметы, процессы, явления, рассматриваемые с точки зрения их информационных свойств, называются информационными объектами.

1.4. Как передаётся информация?

Информация передаётся в виде сообщений от источника к приёмнику через канал связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приёмнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением. 

               канал связи        

       ИСТОЧНИК                ПРИЁМНИК

Примеры: 

информация о прогнозе погоды, передаётся приёмнику (телезрителю) от источника — метеоролога через канал связи — телевизионную передающую аппаратуру и телевизор; живое существо своими органами чувств (глаз, ухо, кожа, язык и т. д.) воспринимает информацию из внешнего мира, перерабатывает её в нервные импульсы, передает импульсы по нервным волокнам, хранит в памяти, использует в процессе своей жизнедеятельности, воспроизводит в виде звуковых сигналов, движений и т. п.

Передача информации по каналам связи часто сопровождается воздействием помех, вызывающих искажение и потерю информации. Источником помех служит канал связи.

1.5. Как измеряется количество информации?

Можно ли объективно измерить количество информации? Важнейшим результатом теории информации является вывод: 

В определенных, условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также сравнить количество информации в различных группах данных. 

Когда информация обрабатывается техническими устройствами, то первостепенную важность представляет не содержание сообщения, количество символов в нем. 

Американский инженер Р. Хартли рассматривал передаваемую информацию как сообщения, сформированные из набора равновероятных символов (алфавита), и определил количество информации, приходящееся на 1 символ, как логарифм по основанию 2 от общего числа символов в алфавите.

Формула Хартли: I = log2N.

Минимальное количество символов в алфавите для передачи информации равно 2. Например, в компьютерной технике или в телеграфии информация передается при помощи алфавита, состоящего из 2 символов: (0, 1 – в компьютерной технике, "точка", "тире" – в телеграфии). Поэтому основание логарифма равно 2. 

За единицу информации принимается количество информации, приходящееся на 1 символ при минимальном алфавите: log2 2 =1 = 1бит (1 двоичная единица) (англ. bit — binary, digit — двоичная цифра). 

В вычислительной технике битом называют наименьшую "порцию" необходимую для хранения одного из двух знаков "0" и "1".

памяти,

Если информация передается при помощи алфавита из 32 символов, то количество информации, приходящееся 1 символ равно log2 32 = 5бит. 

К равновероятным событиям можно отнести, например, 

    выбор одного из N символов,  выпадение "орла" или "решки" при бросании монеты,  выбор одного из нескольких чисел и так далее. 

Количество информации для таких равновероятных событий можно вычислить по формуле Хартли. 

Допустим, нужно угадать одно число из набора натуральных чисел от единицы до ста. Количество информации получаемое при этом событии, равно: I = log2100 = 6,644бит.

Однако не все события являются равновероятными. Определим, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины. 

Используя методологию Хартли, американский ученый Клод Шеннон обратил внимание на то, что при передаче словесных сообщений частота использования различных букв алфавита также не одинакова: некоторые буквы используются очень часто, другие – редко. Для разно вероятных символов Шеннон предложил другую формулу определения количества информации, приходящейся на один символ в сообщении: Hi =−pi log2 pi.

Здесь pi – вероятность i-того символа в сообщении, которая определяется по формуле: 

m

pi =