Конспект лекций по курсу «Организация ЭВМ и систем» для студентов специальности 220100 Вычислительная техника, системы, комплексы и - umotnas.ru o_O
Главная
Поиск по ключевым словам:
страница 1страница 2 ... страница 36страница 37
Похожие работы
Название работы Кол-во страниц Размер
Вопросы к экзамену по курсу «Организация ЭВМ и систем» 1 32.34kb.
Рабочая учебная программа по дисциплине «Технологии программирования»... 1 169.72kb.
Программа учебной дисциплины "эвм и периферийные устройства" для... 1 254.32kb.
Программа дисциплины «Интеллектуальные системы» 1 94.12kb.
Конспект лекций для студентов специальности «Информатика» 9 1614.17kb.
Учебно-методические указания для самостоятельной работы. Конспект... 3 1077.02kb.
Курсовая работа по дисциплине «Организация ЭВМ и систем» 1 182.26kb.
Курсовая работа по курсу «Организация ЭВМ и систем» 1 43.08kb.
Рабочая программа по дисциплине «Технологии программирования» для... 1 201.87kb.
Конспект лекций для студентов специальности асу пермь, 2001г 18 1797.76kb.
Рабочая программа дисциплины " Параллельное программирование" 1 162.62kb.
Учебно-методическое пособие для студентов 10 944.89kb.
Викторина для любознательных: «Занимательная биология» 1 9.92kb.

Конспект лекций по курсу «Организация ЭВМ и систем» для студентов специальности 220100 - страница №1/37

МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ ИНСТИТУТ

ЭЛЕКТРОНИКИ И МАТЕМАТИКИ


Кафедра ЭВА

доцент, к.т.н., Мартиросян С.Т.

КОНСПЕКТ ЛЕКЦИЙ

по курсу «Организация ЭВМ и систем»

для студентов специальности 220100 – Вычислительная техника, системы, комплексы и сети



МОСКВА – 2007

Содержание

Лекция 1. Базовые понятия информации 5

Введение 5

Информация, энтропия и избыточность при передаче данных 8

Информационные процессы 8

Основные структуры данных 9

Обработка данных 10

Способы представления информации и два класса ЭВМ 10

Кодирование информации 10

Представление данных в ЭВМ. 11

Форматы файлов 11

Кодирование чисел 12

Кодирование текста 13

Кодирование графической информации 14

Кодирование звука 14

Типы данных 15



Выводы 17

Вопросы и задания 17

Лекция 2. Компьютер – общие сведения 18

Материнская плата 18

Интерфейсные шины 20

Основные внешние устройства компьютера 21



Выводы 24

Вопросы и задания 24

Лекция 3. Многоуровневая компьютерная организация 25

Архитектура компьютера 25

Классическая структура ЭВМ - модель фон Неймана 27

Особенности современных ЭВМ 29

Выводы 30

Вопросы и задания 30

Лекция 4. Математическое обеспечение компьютеров 30

ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ 30

Библиотеки стандартных программ и ассемблеры 31

Высокоуровневые языки и системы автоматизированного программирования 32

Диалоговые ОС и СУБД 32

Прикладные программы и CASE – технологии 33

Компьютерные сети и мультимедиа 33

Операционные системы 34

Лекция 5.Вычислительные системы - общие сведения 36

Введение 36

Общие требования 36

Классификация компьютеров по областям применения 38

Персональные компьютеры и рабочие станции 38

Суперкомпьютеры 41

Увеличение производительности ЭВМ, за счет чего? 42

Параллельные системы 42

Использование параллельных вычислительных систем 44



Выводы 45

Вопросы и задания 46

Лекция 6. Структурная организация ЭВМ - процессор 46

Введение 46

Микропроцессорная система 47

Что такое микропроцессор? 48

Назначение элементов процессора 50

АЛУ 51

Устройство управления 51



Микропроцессорная память 53

Структура адресной памяти процессора 53

Интерфейсная часть МП 55

Тракт данных типичного процессора 55

Базовые команды 56

Трансляторы 57

Архитектура системы команд и классификация процессоров 58

Микроархитектура процессора Pentium II 60



Выводы 61

Вопросы и задания 61

Лекция 7. Структурная организация ЭВМ - память 62

Общие сведения 62

Иерархия памяти компьютера 64

Оперативная память, типы ОП 66

Кэш-память 66

Кэш-память прямого отображения 67

Тэг Строка Слово (байт) 68

Способы организации кэш-памяти 70

Разновидности строения кэш-памяти 72

Выводы 73

Вопросы и задания 73

Лекция 8. Логическая организация памяти 74

Виртуальная память 74

Страничная организация памяти 75

Преобразование адресов 76

Сегментная организация памяти. 77

Свопинг 81



Выводы 82

Вопросы и задания 83

Лекция 9. Методы адресации 83

Лекция 10. Внешняя память компьютера 86

Введение 86

Жесткий диск (Hard Disk Drive) 86

Конструкция жесткого диска 87

Основные характеристики НМД: 88

Способы кодирования данных 89

Интерфейсы НМД 90

Структура хранения информации на жестком диске 90

Таблица размещения файлов 91

Кластер 91

Методы борьбы с кластеризацией 92

Магнито-оптические диски 93

Дисковые массивы и уровни RAID 94

Лазерные компакт-диски CD - ROM 96

CD-R 96


CD-RW 97

DVD 97


Выводы 98

Вопросы и задания 98

Лекция 11. Основные принципы построения систем ввода/вывода 98

Физические принципы организации ввода-вывода 99

Интерфейс 99

Магистрально-модульный способ построения ЭВМ 100

Структура контроллера устройства 103

Опрос устройств и прерывания. Исключительные ситуации и системные вызовы 103

Организация передачи данных 105

Прямой доступ к памяти (Direct Memory Access – DMA) 107

Логические принципы организации ввода-вывода 107

Структура системы ввода-вывода 108

Буферизация и кэширование 109

Структура шин современного ПК 110

PCI Express 113

Чипсет 114

Выводы 115

Вопросы и задания 116

Лекция 12. Особенности архитектуры современных высокопроизводительных ВС 116

Классификация архитектур по параллельной обработке данных 117

Параллелизм вычислительных процессов 118

Параллелизм на уровне команд – однопроцессорные архитектуры 119

Конвейерная обработка 120

Суперскалярные архитектуры 122

Мультипроцессорные системы на кристалле 124

Технология Hyper-Threading  124

Многоядерность — следующий этап развития 128

Выводы 130

Вопросы и задания 130

Лекция 13. Архитектура многопроцессорных ВС 130

Введение 130

SMP архитектура 130

MPP архитектура 131

Гибридная архитектура (NUMA) 134

Организация когерентности многоуровневой иерархической памяти. 135

 PVP архитектура 135

Кластерная архитектура 135

Проблемы выполнения сети связи процессоров в кластерной системе. 136

Выводы 138

Лекция 14. Кластерные системы 139

Концепция кластерных систем 139

Разделение на High Availability и High Performance системы 140

Проблематика High Performance кластеров 141

Проблематика High Availability кластерных систем 142

Смешанные архитектуры 143



Лекция 15 Многомашинные системы – вычислительные сети 144

Введение 144

Простейшие виды связи сети передачи данных 145

Связь компьютера с периферийным устройством 145

Связь двух компьютеров 147

Многослойная модель сети 148

Функциональные роли компьютеров в сети 149

Одноранговые сети 151

Сети с выделенным сервером 152

Гибридная сеть 155

Сетевые службы и операционная система 156



Лекция 17. Сети и сетевые операционные системы 157

Введение 157

Для чего компьютеры объединяют в сети 158

Сетевые и распределенные операционные системы 158

Взаимодействие удаленных процессов как основа работы вычислительных сетей 159

Основные вопросы логической организации передачи информации между удаленными процессами 161

Понятие протокола 162

Многоуровневая модель построения сетевых вычислительных систем 163

Проблемы адресации в сети 166

Одноуровневые адреса 166

Двухуровневые адреса 167

Удаленная адресация и разрешение адресов 167

Локальная адресация. Понятие порта 169

Полные адреса. Понятие сокета (socket) 170

Проблемы маршрутизации в сетях 170

Связь с установлением логического соединения и передача данных с помощью сообщений 173

Синхронизация удаленных процессов 174

Заключение 174

Список литературы: 175



Лекция 1. Базовые понятия информации

Введение


Мы начинаем первое знакомство с величайшим достижением нашей цивилизации, стоящем в одном ряду с изобретением книгопечатания и открытием электричества – компьютером. Сначала мы вспомним базовые понятия информатики, как науки, изучающей основные аспекты получения, хранения, преобразования и передачи информации. Затем мы раскроем сущность, принцип работы компьютера как технического устройства. Затем мы изучим наиболее оптимальные способы соединений компьютерных устройств и технологий с целью получения максимальной эффективности хранения, обработки и передачи информации.

Особенностью нашего курса будет пристальное внимание к фундаментальным аспектам компьютерных и сетевых технологий. Еще одна особенность, мы будем помнить, что ПК давно перестал быть просто вычислителем. Это универсальная система обработки больших и разнородных информационных потоков. А что такое информационный поток? Или более конкретно - Что такое информация?

В сотнях книг и учебниках это понятие трактуется по-разному. А ведь все мы интуитивно понимаем, что это такое. В чем здесь дело? А дело в том, что понятие информации стоит в одном ряду с такими фундаментальными понятиями как энергия, вещество, энтропия, время. Действительно, в природе существует два фундаментальных вида взаимодействия: обмен веществом и обмен энергией (не будем вдаваться в тонкости фактической эквивалентности этих двух явлений). Фундаментальность их проявляется в том, что все остальные взаимодействия происходят только посредством этих взаимодействий. Эти два взаимодействия являются симметричными и подчиняются фундаментальному закону сохранения – сколько вещества и/или энергии один объект передал другому, столько он потерял, а другой приобрел (рассматриваются замкнутые системы, в которых потери можно охарактеризовать просто другими видами взаимодействия).

Когда в процессе взаимодействия приобретения и потери НЕ совпадают, НЕ равны – такое взаимодействие называют несимметричным. Очевидно, что в предельном случае несимметричного взаимодействия при передаче некоторой субстанции между объектами один из них ее приобретает, а другой НЕ теряет.

Исходя из этого, попробуем выделить необходимый и достаточный признак, по которому можно будет определить, относится то или иное явление к обмену веществом/энергией или к обмену информацией. В этом контексте сформулируем наиболее общее свойство информации.

Любое взаимодействие между объектами, в процессе которого один приобретает некоторую субстанцию, а другой ее не теряет называется ИНФОРМАЦИОННЫМ ВЗАИМОДЕЙСТВИЕМ. При этом передаваемая субстанция называется ИНФОРМАЦИЕЙ.

Отсюда следуют некоторые очевидные свойства информации:



  • если энергия определяет возможность совершения действия, то информация определяет возможность целесообразного выбора этого действия;

  • информация не может существовать вне взаимодействия объектов;

  • информация не теряется ни одним из них в процессе этого взаимодействия;

  • информация устраняет неопределенность, предоставляет человеку или техническому устройству возможность сделать выбор в пользу одного из нескольких равноправных вариантов.

Впервые понятие информации ввел американский математик Клод Шеннон, рассматривая процесс передачи сообщения между двумя точками в 1948 г. как численную меру неопределенности или неупорядоченности, с которой посланное сообщение прибывает в пункт назначения. Он назвал этот параметр энтропией, применив термин из термодинамики, который там используется для оценки неупорядоченности материи и характеризует несимметричные взаимодействия. Более того, Шеннон предложил формулу, позволяющую определить количество информации, содержащееся в сообщении:

I = Log 2 P

где I – количество информации в битах или энтропия вероятности;

P – вероятность, величина неопределенности, число возможных вариантов.

М
одель передачи сообщения по Шеннону


Отметим одну интересную особенность этого выражения: символ с высокой вероятностью появления кодируется несколькими битами, тогда как маловероятный символ требует многих бит. Другими словами, энтропия системы, объекта с большим числом степеней свободы очень велика, больше величина хаоса, беспорядка. Однако не всем и не сразу стала очевидной связь количества информации и энтропии, попробуем разобраться в этом.

В работах Планка, а главным образом Больцмана понятие энтропии трактовалась, как мера неумолимой тенденции всякой системы двигаться от менее вероятного состояния к более вероятному состоянию. Наиболее вероятным состоянием системы является РАВНОВЕСНОЕ состояние, а любая система движется к состоянию равновесия. Содержание второго постулата (принципа) термодинамики формулирует этот закон более строго – энтропия замкнутой системы не убывает (растет для необратимых процессов и остается постоянной для обратимых:



Hs = k Ln Wt
где k – постоянная Больцмана;

Wt – термодинамическая вероятность состояния системы.


Сравним это выражение с определением количества информации данное Шенноном. Очевидно сходство обоих выражений и это сходство носит фундаментальный характер. Как мы уже говорили, энтропия является функцией статистического состояния системы (мерой ее неупорядоченности, хаоса). Пусть имеется некоторая система, энтропия которой равна Н нач. После получения некоторой информации (либо о состоянии объекта, либо о взаимодействии с внешней средой) энтропия должна уменьшаться (растет порядок, уменьшается хаос). В широком смысле можно сказать, что информация, принимаемая объектом, необходимо является для него целесообразной, в противном случае это – дезинформация. Следовательно, количество полученной информации можно определить следующим образом:

I = Н нач – Н кон

Количество получаемой объектом информации численно равно неопределенности по выбору действий ведущих к достижению целей объекта или энтропии устраненной благодаря сообщению. Очевидно, что в данном случае речь идет о синтаксической мере информации. Информация устраняет неопределенность, структурирует систему.



Пример:

Примитивные формы информационного взаимодействия в чистом виде можно выделить уже в неживой природе. Действительно, каталическое взаимодействие. Объект, называемый катализатором изменяет скорость протекания химической реакции между группой других объектов, сам катализатор остается неизменным по всем своим свойствам. Ярчайшим примером информационного взаимодействия в ходе которого уменьшается энтропия всей системы, а химические, физические свойства катализатора остаются неизменными – является реакция кристаллизации насыщенного солевого раствора в присутствии кристаллической «затравки».



Обратите внимание на еще одно немаловажное свойство информации – изменение возможно и без получения информации, но при этом оно будет менее вероятным.
следующая страница >>