Похожие работы
|
Многомерный анализ - страница №4/4
6. Построить график по первым двум параметрам: (Graphs\Scatterplots\) Кнопка Variables: В окошке над X выбрать 1-Years. В окошке над Y выбрать 2-SPOTS. OK; OK. Щелкнуть правой кнопкой мыши по любому кружочку. Выбрать Properties. Опция Line –Yes. OK. (WorkBook\Extract as stand-alone window\Copy; File\Save As..\\UserDir\ SunSpot.stg) (File\Save As..\\UserDir\ SunSpot. jpg) 9. Закрыть все рисунки. (Save changes – Нет.) Закрыть все панели, кроме таблицы SunSpot. 10. Спектральный анализ. Statistics\ Advanced_Linear/Nonlinear_Models \Time_Series/Forecasting. (Вошли в панель cпектрального анализа). Выбрать SPOTS. Кнопка Spectral (Fourier) analysis. (Вошли в панель). Кнопка Single series Fourier analysis. (Вошли в панель). В рамке Plot by задать: Period-Yes. Кнопка Spectral density. (WorkBook\Extract as stand-alone window\Copy; File\Save As..\\UserDir\ Spectral.stg) (File\Save As..\\UserDir\ Spectral. jpg) 13. Закрыть все рисунки. (Save changes – Нет.) Закрыть все панели, кроме таблицы SunSpot. 14. Авторегрессия. Statistics\ Advanced_Linear/Nonlinear_Models \Time_Series/Forecasting. Щелкнуть SPOTS. Кнопка ARIMA&autocorrelation functions. (Вошли в панель Single series ARIMA). Estimate constant – Yes. p-Autoregressive – 1. q-Moving_aver. – 1. OK. (Вошли в панель). Кнопка: Advanced. Number of cases – 12. Start at case – 165. Append forecast … on EXIT – No. Кнопка Plot series & forecast. (Рисунок). Закрыть рисунок. Cancel. (Вошли в панель Single series ARIMA). Самостоятельно подобрать параметры p-Autoregressive и q-Moving_aver. с наилучшим прогнозом. Сохранить рисунок с наилучшим прогнозом под именем Forecasts и расширениями *.stg и *.jpg. 15. Закрыть все панели. Закрыть программу Statistica. 16. Запустить Excel. Открыть файл SunSpot.xls (Файл\Открыть\\ UserDir\ SunSpot.xls. 17. Сохранить как текстовый файл (с разделителями табуляции) с расширением *.dat (Файл\Сохранить как..\\UserDir \ SunSpot.dat). На запрос – Нет. Закрыть Excel. Сохранить изменения – Нет. 18. Запустить программу \GUS\Caterplr (Гусеница). 19. Открыть файл SunSpot.dat (Файл\Открыть\\ UserDir \ SunSpot.dat)OK. Панель: Формат исходных данных. Опции: Структурированный – Yes. Названия переменных – Да. Разделитель – точка. Кодировка – OEM.OK. Выберите переменную – SPOTS. OK. Кнопка: Опции\Графика\Максимальное кол-во точек на экран – 200. OK. (В случае неполадок со шрифтами посмотреть файл readme.txt в директорииGUS) 20. Кнопка: Разложение временного ряда (картинка). (Вошли в панель). Длина гусеницы – 11. Нормировать – Нет. Центрировать – Да. OK. 21. Кнопка: Восстановление временного ряда (картинка). (Вошли в панель). Кнопка: >>.. Выделить 4-ю компоненту. Кнопка: <. Нажимать, пока в правом окне не останутся первые 3 компоненты. OK. Максимальное количество точек – 200.OK. График 2D. 24. Закрыть программу «Гусеница». 25. Запустить Excel. Открыть файл SunSpot.xls (Файл\Открыть\\ UserDir\ SunSpot.xls. 26. В ячейки C1-M1 занести имена новых переменных S1-S11. 27. Выделить блок B2-B177. Скопировать в ячейки C3-C178, D4-D179, E5-E180, F6-F181, G7-G182, H8-H183, I9-I184, J10-J185, K11-K186, L12-L187, M13-M188. 28. Удалить неполные строки (сначала 178-188, потом 2-12). 29. Выделить ячейки A2-N166. Формат\Ячейки\ЧисловойФормат-Числовой \Число десятичных знаков-0\OK) 30. Сохранить как файл Excel 4.0 (Файл\Сохранить как..\\UserDir \ SunSpot1.xls). 31. Удалить строки 157-166. 32. Сохранить как текстовый файл с разделителями табуляции (Файл\Сохранить как..\\UserDir \ SunSpot2.txt). Запрос – Да. 33.. Закрыть Excel. Сохранить изменения – Нет. 34. Открыть программу NNW\bin\wizard.exe 35. Кнопка: Обзор. Открыть файл SunSpot2.txt. Кнопка: Далее>>. (Имена полей должны содержать только буквы и цифры. Подчерки и пробелы не допускаются. Значения полей должны быть только числовыми.) 36. В списке доступных полей S1..S11 пометить как входные, SPOTS – как целевое, YEARS – не использовать. Кнопка: Далее>>. 37. Число нейронов задать 1. Кнопка: Далее>>. 38. Опция: Прошло –Yes. Число эпох оставить 10000. Кнопка: Далее>>. 39. Панель: Конфигурация нейросистемы. Кнопка: Далее>>. 40. Кнопка: Пуск обучения. 41. Если результаты обучения заметно отличаются от 100%, кнопками «Назад» вернуться и увеличить число нейронов (в крайнем случае – слоев). Повторить обучение. 42. Задать число нейронов 3. Повторить обучение. Кнопка: Далее>>. 43. Открыть в Excel файл SunSpot1.xls (не закрывая NNW). Вставить пустой столбец в колонку C. (Курсор в ячейку C1. Вставка\Столбцы ). Занести в ячейку C1 текст: PREDICT. Задать (вручную) набор входных параметров S1..S11 из строки с годом 1915, т.е. 96 14 36 57 186 439 485 620 538 635 420. Кнопка: Расчет. Занести полученное значение в Excel в ячейку C157. Задать в окне NNW набор входных параметров из строки с годом 1916. Кнопка: Расчет. Занести полученное значение в Excel в ячейку C158. Задать в окне NNW набор входных параметров из строки с годом 1917. Кнопка: Расчет. Занести полученное значение в Excel в ячейку C159. … (и так далее…) Задать в окне NNW набор входных параметров из строки с годом 1924. Кнопка: Расчет. Занести полученное значение в Excel в ячейку C166. Кнопка Отмена. Выйти из NeuralWizard. 46. Сохранить SunSpot1.xls как файл Excel4. Закрыть Excel. 47. Запустить программу Statistica. 48. Открыть файл SunSpot1.xls (File\Open\UserDir\ SunSpot1.xls ) Кнопка: Input selected spreadsheet as Spreadsheet. Опция: Put variable names from first row – Yes. Сохранить как файл Statistica.(File\Save As..\\UserDir\ SunSpot1.sta)Сохранить. 49. Построить график. (Graphs\Scatterplots). Опция: Graph type – Multiple. Опция: Linear fit – No. Кнопка: Variables. В окне над X выбрать Years. В окне над Y – SPOTS, PREDICT. OK. Кнопка: Select cases. Опция: Enable Selection Conditions – Yes. Опция: Specific, selected by. В окне “or case number” набрать 130:166. OK.OK. Щелкнуть правой кнопкой по красному объекту. Кнопка: Properties.. Опция: Line – Yes. OK. Щелкнуть правой кнопкой по синему объекту. Кнопка: Properties.. Опция: Line – Yes. OK. Сохранить рисунок с именем Forecast2.jpg. Выйти из программы Statistica. 10. Открыть в любом текстовом редакторе файл Iris.csv. Добавить в начало файла текст “N;” (без кавычек). Заменить во всем файле запятую на точку с запятой. Сохранить и закрыть файл. 11. Открыть файл Iris.csv в Excel. Убедиться, что все в порядке. Закрыть файл. 1. В представлении объектов фигурами в многомерном евклидовом пространстве. 2. В представлении объектов линиями в многомерном евклидовом пространстве. 3. В представлении признаков векторами в многомерном евклидовом пространстве. 4. В представлении объектов точками в многомерном евклидовом пространстве. 1. Линия. 2. Фигура. 3. Точка.4. Отрезок. 3. Что служит моделью различий между объектами при геометрическом подходе? 1. Угол между векторами. 2. Несовпадение геометрических фигур при наложении. 3. Евклидово расстояние между объектами. 4. Кратчайшее расстояние между линиями. 1. Признаки однородны, объекты необязательно. 2. Объекты однородны, признаки необязательно. 3. Объекты являются строками в матрице данных, а признаки – столбцами. 4. Объекты можно центрировать, а признаки – нет. 1. Биномиальные. 2. Количественные. 3. Качественные. 4. Порядковые. 6. Что такое транспонирование матрицы? 1. Замена столбцов на строки и наоборот. 2. Вычисление обратной матрицы. 3. Перенос строк из начала в конец матрицы. 4. Умножение матрицы на единичную. 1. Подгонка под нормальное распределение. 2. Деление среднеквадратичного отклонения на среднее. 3. Вычитание среднего и деление на дисперсию. 4. Вычитание среднего и деление на среднеквадратичное отклонение. 1. Разбить по порядку на группы с одинакового размера и присвоить каждому объекту ранг группы. 2. Никак. 3. Присвоить каждому объекту его ранг. 4. Разбить на группы с одинаковым диапазоном изменений и присвоить каждому объекту среднее группы. 1. Приписать каждому объекту его номер. 2. Обозначить одну градацию нулем, другую – единицей и приписать эти значения объектам, входящим в соответствующие градации. 3. Приписать каждому объекту случайное число. 4. Никак. 1. Никак. 2. Образовать для каждой градации отдельный признак и заполнить его случайными числами. 3. Взять в качестве значений коды градаций. 4. Образовать для каждой градации отдельный признак со значениями, равными 1, если объекты попадают в эту градацию, и 0 – в противном случае. 1. Нельзя. 2. Иногда можно. 3. Почти всегда можно. 4. Всегда можно. 12. Что такое скаляр? 1. Набор чисел. 2. Вещественное число. 3. Положительное число. 4. Целое число. 13. Что такое вектор? 1. Набор скаляров. 2. Вещественное число. 3. Несколько наборов чисел. 4. Расстояние между двумя точками. 1. Набор чисел. 2. Набор векторов одинаковой длины. 3. Вещественное число. 4. Набор векторов разной длины. 1. Поэлементное произведение векторов. 2. Произведение попарной суммы координат векторов. 3. Поэлементная сумма векторов. 4. Сумма попарного произведения координат векторов. 1. Сложение каждого элемента первой матрицы с суммой всех элементов второй матрицы. 2. Сложение каждой строки первой матрицы с каждым столбцом второй матрицы. 3. Поэлементная сумма матриц. 4. Сумма всех элементов первой матрицы с суммой всех элементов второй матрицы. 1. Поэлементное произведение матриц. 2. Скалярное произведение каждой строки первой матрицы на каждый столбец второй матрицы. 3. Скалярное произведение каждой строки первой матрицы на каждую строку второй матрицы. 4. Произведение всех элементов первой матрицы на произведение всех элементов второй матрицы. 1. Матрица, у которой по главной диагонали стоят нули, а остальные элементы равны единице. 2. Матрица, состоящая из одних единиц. 3. Матрица, у которой скалярное произведение строк (столбцов) самих на себя равно единице, а скалярное произведение строк (столбцов) на другие строки (столбцы) равно нулю. 4. Матрица, у которой по главной диагонали стоят единицы, а остальные элементы равны нулю. 1. Матрица, у которой по главной диагонали стоят ненулевые числа, а остальные элементы равны нулю. 2. Матрица, у которой по главной диагонали стоят любые числа, а остальные элементы равны нулю. 3. Матрица, у которой по главной диагонали стоят единицы, а остальные элементы равны нулю. 4. Матрица, у которой по главной диагонали стоят нули, а остальные элементы равны единице. 1. Матрица, при умножении которой саму на себя получается единичная матрица. 2. Матрица, у которой скалярное произведение строк (столбцов) самих на себя равно единице, а скалярное произведение строк (столбцов) на другие строки (столбцы) равно нулю. 3. Матрица, при умножении на которую получается ортогональная матрица. 4. Матрица, при умножении на которую другая матрица не меняется. 1. Растяжение (сжатие) выборки по произвольным направлениям в многомерном пространстве. 2. Поворот совокупности объектов в многомерном пространстве. 3. Перенос начала координат в центр тяжести выборки. 4. Растяжение (сжатие) выборки по координатным осям. 1. Поворот совокупности объектов в многомерном пространстве. 2. Перенос начала координат в центр тяжести выборки. 3. Растяжение (сжатие) выборки по произвольным направлениям в многомерном пространстве. 4. Растяжение (сжатие) выборки по координатным осям. 1. Перенос начала координат в центр тяжести выборки. 2. Поворот совокупности объектов в многомерном пространстве. 3. Растяжение (сжатие) выборки по координатным осям. 4. Растяжение (сжатие) выборки по произвольным направлениям в многомерном пространстве. 1. Сумма признаков с некоторыми коэффициентами, дающая новый признак. 2. Расположение признаков на числовой оси. 3. Перестановка исходных признаков. 4. Произведение признаков с некоторыми коэффициентами, дающее новый признак. 1. Линейная комбинация признаков НЕ является произведением матрицы «объект-признак» на собственный вектор корреляционной матрицы. 2. Линейная комбинация признаков НЕ является произведением матрицы «объект-признак» на вектор. 3. Линейная комбинация признаков является произведением матрицы «объект-признак» на вектор. 4. Линейная комбинация признаков всегда является произведением матрицы «объект-признак» на собственный вектор корреляционной матрицы. 1. Направлению с максимальной дисперсией в многомерном пространстве объектов. 2. Направлению с минимальной дисперсией в многомерном пространстве объектов. 3. Направлению в многомерном пространстве объектов. 4. Центру тяжести выборки. 1. Матрица коэффициентов корреляции между признаками. 2. Центрированная и нормированная матрица «объект-признак», умноженная сама на себя. 3. Матрица коэффициентов корреляции между объектами. 4. Центрированная и нормированная матрица «объект-признак». 1. Вектор, для которого умножение на корреляционную матрицу эквивалентно умножению на скаляр. 2. Диагональ корреляционной матрицы. 3. Строка корреляционной матрицы. 4. Столбец корреляционной матрицы. 1. Строка корреляционной матрицы. 2. Скаляры, которые получаются при умножении корреляционной матрицы на ее собственные вектора. 3. Дисперсии исходных признаков. 4. Значения, стоящие по диагонали корреляционной матрицы. 1. Направление с максимальной дисперсией в многомерном пространстве объектов. 2. Произведение признаков с некоторыми коэффициентами, дающее новый признак. 3. Матрица «объект-признак», умноженная на собственный вектор. 4. Направление с минимальной дисперсией в многомерном пространстве объектов. 1. Нормировать каждую выборку отдельно. 2. Центрировать и нормировать все выборки общими средними и дисперсиями. 3. Центрировать все выборки общими средними. 4. Центрировать каждую выборку отдельно. 1. Направление, в проекции на которое отношение межвыборочной дисперсии к объединенной внутривыборочной максимально. 2. Направление, в проекции на которое общая дисперсия выборки максимальна. 3. Направление, в проекции на которое межвыборочная дисперсия выборки максимальна. 4. Направление, в проекции на которое разница общей дисперсии и объединенной внутривыборочной максимальна. 1. Никак. 2. Центрировать каждую выборку отдельно. 3. Преобразовать матрицу «объект-признак» в главные компоненты и отбросить компоненты с малыми дисперсиями. 4. Взять другой статистический пакет. 1. Линейная зависимость одной переменной от другой, найденная по методу наименьших квадратов. 2. Линейная зависимость одной переменной от другой, полученная с помощью логарифмического преобразования. 3. Линейная зависимость одной переменной от другой, полученная с помощью двойного логарифмического преобразования. 4. Зависимость одной переменной от другой, получающаяся при соединении точек прямыми линиями. 1. Прямая линия, максимально близко проходящая через множество объектов. 2. Множество объектов, соединенное отрезками прямых линий. 3. Линейная зависимость многих переменных от одной, найденная по методу наименьших квадратов. 4. Линейная зависимость одной переменной от других, найденная по методу наименьших квадратов. 1. Никак. 2. Преобразовать матрицу «объект-признак» в главные компоненты и отбросить компоненты с большими дисперсиями. 3. Вычислить гребневую (ridge) регрессию. 4. Взять другой статистический пакет. 1. Направление, в проекции на которое достигается максимальная корреляция между родителями и потомками. 2. Направление, в проекции на которое общая дисперсия выборки родителей и потомков минимальна. 3. Направление, в проекции на которое достигается минимальное различие между родителями и потомками. 4. Направление, в проекции на которое достигается максимальная разница между дисперсиями выборок родителей и потомков. 1. Только с одним максимумом. 2. Только монотонные. 3. Любые. 4. Только квадратичные. 1. Выборка, которая используется в целях обучения студентов. 2. Выборка, которая прогоняется через обученную нейронную сеть. 3. Множество преподавателей вуза, обучающее данную группу студентов. 4. Выборка, по которой подгоняются веса нейронной сети. 1. Для проверки качества обученной нейронной сети. 2. Для проверки качества обучения и контроля знаний студентов. 3. Для подгонки весов нейронной сети. 4. Для поиска вида нелинейной зависимости между входными и выходными переменными. 1. Два. 2. Ни одного. 3. Три. 4. Один. 42. Указать пример евклидовой меры различия между объектами. 1. Квадратный корень из суммы разностей значений нескольких признаков. 2. Коэффициент корреляции. 3. Модуль разности значений некоторого признака. 4. Коэффициент Жаккара-Наумова. 1. Вычислить модули коэффициентов корреляции осей многомерного шкалирования с исходными признаками. 2. Никак. 3. Вычислить коэффициенты корреляции осей многомерного шкалирования с исходными признаками. 4. Вычислить квадраты коэффициентов корреляции осей многомерного шкалирования с исходными признаками. 1. Взять в качестве координат разности значений между соседними значениями отрезка временного ряда. 2. Отложить на числовой оси разность между начальным и конечным значениями отрезка временного ряда. 3. Никак. 4. Взять в качестве координат последовательность значений отрезка временного ряда. 1. Две. 2. Одну. 3. Все. 4. Две статистически независимых. 46. Как визуализировать аттрактор динамической системы? 1. Применить авторегрессию. 2. Последовательные отрезки временного ряда, отражающего динамику одной из переменных, представить в виде матрицы и обработать методом главных компонент. Построить двумерный или трехмерный график зависимости одной из компонент от других. 3. Построить двумерный или трехмерный график зависимости одной из переменных динамической системы от других. 4. Применить спектральный анализ. 1. Шнурок от ботинок. 2. Метод расчета достоверности путем размножения исходной выборки через случайный выбор с возвращением. 3. Метод расчета достоверности путем размножения исходной выборки через случайный выбор без возвращения. 4. Метод расчета достоверности путем заполнения исходной выборки случайными числами. 1. Для оценки среднего значения выборки. 2. Для оценки доверительных интервалов среднего значения выборки. 3. Для оценки доверительных интервалов дисперсии выборки. 4. Для поднятия себя за шнурки в ботинках. 1. Матрица евклидовых расстояний между объектами. 2. Координатное представление объектов в многомерном евклидовом пространстве. 3. Матрица коэффициентов сходства/различия между объектами. 4. Матрица рангов коэффициентов сходства/различия между объектами. 1. Для оценки среднего значения выборки. 2. Для оценки достоверности различий средних значений двух выборок. 3. Для оценки достоверности различий дисперсий двух выборок. 4. Для оценки уровня, за которым начинаются значимые отклонения от нулевой гипотезы. _________________________ Научное издание. RIZO-печать ИННОВАЦИОННЫЙ ЦЕНТР ЗАЩИТЫ РАСТЕНИЙ (ВИЗР) Лицензия ПЛД № 69-253. Подписано к печати 28 января 2008 г << предыдущая страница |
|