Лекция 6 Метод молекулярной механики. Методы определения оптимальных конформаций макромолекулы - umotnas.ru o_O
Главная
Поиск по ключевым словам:
страница 1
Похожие работы
Название работы Кол-во страниц Размер
Метод определения тепловыделения 1 93.16kb.
Дисциплина «Методы оптимальных решений» 1 32.5kb.
Лекция 6 Молекулярно-кинетическая теория. Статистическая физика План 1 294.77kb.
«Ученые – химики» 1 49.53kb.
Галкина М. Ю. Методы оптимальных решений (Лекции) 8 1234.44kb.
Литература Приложение. Список наиболее важных полимеров и их структурные... 3 337.24kb.
Закон термодинамики 2 647.17kb.
Лекция №12. Аналитические методы расчета нц при периодических воздействиях... 1 91.09kb.
Пояснительная записка к первой редакции проекта межгосударственного... 1 60.01kb.
«Счастье это когда тебя понимают»: так ли это? 1 38.31kb.
Физика I. Физические основы механики и молекулярной физики 1 171.16kb.
Решение задач математического программирования [1: №№13, 4, 5] 1 22.88kb.
Викторина для любознательных: «Занимательная биология» 1 9.92kb.

Лекция 6 Метод молекулярной механики. Методы определения оптимальных конформаций - страница №1/1

II . Принципы моделирования структуры биополимеров
Лекция 6

Метод молекулярной механики. Методы определения оптимальных конформаций макромолекулы.

Методы локальной и глобальной оптимизации функции многих переменных. Метод наискорейшего спуска. Метод сопряженных направлений. Генетический алгоритм оптимизации.

Метод Монте Карло генерации микроканонического ансамбля конформаций.

Оптимизация методом моделирования «отжига» системы.

Метод молекулярной механики
- метод приближенного расчета Поверхности Потенциальной Энергии

в окрестности локальных минимумов и путей переходов между ними



Рис. 6-1.
Оптимальные конформации

  • глобальный минимум ППЭ

  • локальные минимумы ППЭ

  • пути переходов между конформациями


Методы определения оптимальных конформаций макромолекулы
- методы оптимизации функций многих переменных
оптимизируемая функция – целевая функция
Ф(х) =Ф(r1,…,rN) = Uconf(r1,…,rN) + P(r1,…,rN)
это конформационная энергия + дополнительные ограничения (penalty)
Например,

  • считали из PDB структуру некоторого белка,

  • добавили атомы водорода,

  • необходимо релаксировать конформационную энергию структуры,

так чтобы структура была устойчивой - метастабильной

  • локальная оптимизация


Методы локальной оптимизации функций многих переменных


  • метод наискорейшего спуска

  • метод сопряженных градиентов

  • метод Нютона-Рафсона, квази -Ньютоновские методы


Постановка

  • имеем начальную точку х0 , необходимо построить алгоритм движения к минимуму функции Ф(х), т.е. последовательность

точек х1 , х2, х3,.., хn в которых функция убывает и сходится к точке минимума
Решение:
в окрестности хk представим функцию квадратичной формой
Ф(х) = Ф(хk) + Ф(хk)(х- хk)+ (х- хk)Ф(хk) (х- хk)/2+… (6.1)

условие минимума:
Ф(хm)=0 или для всех i (6.2)

Ф(хm) – матрица вторых производных



матрица гессиан, положительно определена
Ищем минимум квадратичной формы (6.1)

Метод наискорейшего спуска
1) имеем точку хk
вычисляем вектор направления спуска, направление антиградиента

(6.3)

2) следующая точка

хk+1= хk+sk (6.4)

- длина шага спуска

реализует минимум функции Ф(хk+sk ) по направлению

,

=k




3) хk+1= хk+sk


возврат к 1)





sk+1

xk+1

sk xk

- метод удовлетворительно работает

- эффективен вдали от точи минимума, быстро сходится к окрестности минимума
- не эффективен в

окрестности точки минимума, особенно для функции овражного типа



Метод сопряженных градиентов
 направление спуска выбирается с учетом предшествующего направления

sk = -gk + ksk-1 (6.5)

скаляр k



- направления спуска метода сопряженных градиентов выбирается более эффективно в области оврагов, чем в методе наискорейшего спуска,

- быстрее ведет к точке минимума,

- работает для овражных функций,

- хорошо работает в окрестности точки минимума

Метод Нютона-Рафсона, квази Ньютоновские методы


  • наиболе точный метод расчета направления спуска

использует расчет матрицы Гессиана,
sk = -gk Н (6.6)
минимум определяется точно, если Ф(х) – квадратичная форма (6.1)

xmin = xk + sk
для произвольной функции

xk+1 = xk + sk

с величиной шага  реализующий минимум функции по направлению sk




  • быстро сходится, несколько итераций

- точен вблизи минимума

  • вычислительно трудоемкий

  • редко используется для макромолекул


квази Ньютоновские методы –
приближенный расчет матрицы гессиана по ходу итераций,


  • метод Давидона-Флетчера,

  • метод Флетчера-Пауэла.



ППЭ многоатомных биомолекул очень сложная
- овражного типа (следствие корреляций положений атомов),

направления движения атомов резко не эквивалентны на ППЭ,

- множество локальных минимумов (в том числе артефакты силового поля),

- последовательность точек xk алгоритмов локальной оптимизации сходится медленно, т.к. ППЭ аппроксмируется квадратичной формой только в малой окрестности точки xk .




Псевдо-глобальная оптимизация
Генетический алгоритм оптимизации
[Goldberg, 1989; Judson P.S. J.Comp.Chem. 1993, 14,p.1407-1414]
Реализует процесс биологической эволюции для определения оптимальных состояний системы – метод псевдоглобальной оптимизации функции многих переменных
Ф(х) –

xi - вектор оптимизируемых параметров,
ГА работает с дискретными значениями параметров,
Подготовка системы
1. определение генов


    1. задаем область определения каждой переменной xi

    2. назначаем переменным множество дискретных пронумерованных значений определения – ni – число дискретных значений переменной i

1.3 кодируем ni – строкой бит в двоичном коде

например углы вращения 0значения = 0,12,24,…,348 = 0,1,2,…,32 =

=00000,00001,00010,00011,….,11111

каждый параметр кодируется строкой из 5-ти элементов 0 1


1.4. каждый параметр – ген

1.5. строка параметров = строка генов = хромосома


Примеры генов – параметров и хромосом

Углы вращения







Рис. 6-2.




2. Генерация исходных особей – множества генов и хромосом


  • некоторое количество N хромосом случайно покрывающих всю область определения

  • вычисляется качество хромосомы, величина функции i = Ф(i)


Организация эволюционного цикла
Для организации эволюции генов определяются 4 операции


  1. выживание – уничтожение особей (хромосом) плохого качества

  2. скрещивание – создание хромосомы потомка из пары родителей

  3. мутация - изменение гена в хромосоме потомка



Основной эволюционный цикл


  1. выживание, расчет качества особей популяции Pk и выживание 1/2 лучших особей из популяции

  2. скрещивание пар хромосом родителей, генерация N/2 детей

  • случайный выбор пар родителей

  • случайный выбор позиции точки кроссовера вдоль гена, обмен частями последовательности в паре хромосом

111110000010101

родители -----> 111110010001110

100011110001110


  1. мутация случайного гена в хромосоме потомства – с вероятностью genmut « 1 малая величина

111110010001110 -----> 111110011001110




  1. восстановление популяции до N особей = Pk+1




  1. сравнение популяций Pk+1 и Pk




  1. возврат на 1. если Pk+1 и Pk различны



  1. В идеале, все особи Pm одинаковы и имеют максимально-возможное качество – глобальный минимум

В реальности – ГА алгоритм не гарантирует достижение глобального минимума, но генерирует популяцию хорошего качества



Метод Монте Карло
- генерация микроканонического ансамбля конформаций при заданной температуре Т
энергия системы

Ф(х) =Ф(r1,…,rN)


Система принимает состояния х , =1,2,….,K

вероятность найти систему в состоянии х - распределение Гиббса


= exp(-Ф(х )/kT)/Z
вероятность найти систему в состоянии х

= exp(-Ф(х )/kT)/Z


 и  вероятности переходов между состояниями
в состоянии равновесия, должен соблюдаться

-принцип микроскопической обратимости переходов между состояниями

-принцип детального равновесия между состояниями
 =  
либо

 / = exp(-[Ф(х )- Ф(х )]/kT)


откуда следует что вероятности переходов
 = exp(-[Ф(х )- Ф(х )]/kT) , если Ф(х ) > Ф(х ) (6.7)

= 1 если Ф(х ) х )


- это метод Метрополисаметод существенной выборки

Алгоритм метода Монте Карло
1) имеется некоторое начальное состояние х

2) выберем случайно состояние х



3) перейдем в новое состояние х согласно критерию Метрополиса

 = 1 , если Ф(х ) х ) – энергия понижается


 = exp(-[Ф(х )- Ф(х )]/kT) , если Ф(х ) > Ф(х ) –энергия

повышается


как принять состояние с вероятностью  -генерируем случайное число ,

равномерно распределенное на интервале ( 0,1)
-если   = exp(-[Ф(х )- Ф(х )]/kT) , то состояние х принимается


0  1
4) возврат к пункту 1)

Оптимальная работа алгоритма

достигается тогда, когда состояния ,  выбираются случайно, но достаточно близкими



  • переход  -->  состоит из случайной комбинации

малых «стандартных движений» для вращений вокруг связей













  • малые вращения вокруг последовательности связей



  • Свойства ансамбля состояний метода МК

Алгоритм генерирует цепочку состояний  и число посещений nv этого состояния

(,nv), (,nv), (,nv), … составляющих Марковскую цепь =
- каждое состояние зависит только от одного предыдущего
состояния с низкой энергией достигаются с большей вероятностью
при достаточно долгой работе алгоритма все состояния системы

будут достигнуты независимо от стартового состояния




Расчет средних характеристик

по ансамблю состояний метода МК


среднее значение энергии системы
(6.8)

средне-квадратичная флуктуация энергии


(6.9)

Метод МК сходится к равновесному ансамблю когда среднее


(NMK ) ~ const
- независимо от числа генерированных МК

состояний















NMK

Глобальная оптимизация методом МК

- моделирование «отжига» системы
МК метод сопряженный с постепенным уменьшением температуры по

По специальному расписанию

Т  Т - Т через каждые N шагов

высокие Т

Ф/RT

- все состояния достижимы, возможны переходы через



барьеры с высокой вероятностью,

плохая начальная точка передвигается в область низкой энергии
плавное понижение Т


  • траектория МК способна преодолевать более низкие барьеры и

передвигать в область низких энергий на ППЭ
360>