Эмблема узла   Справка
ИММ УрО РАН
Отдел вычислительной техники
Расширенный поискВыполнить поиск
 (скрыто) Logon-Logoff
 Печать...
 Ehglish version is here English  Ehglish version is here Статистика 

Отдел вычислительной техники (ОВТ) был создан в 1971 г. на базе лаборатории электронно-вычислительной техники (заведующий Кузякин Ю.И.), входившей в состав Отдела вычислительных систем (заведующий доктор технических наук Чистов В.П.). В 1973 г. ОВТ был преобразован в Вычислительный центр (ВЦ) (заведующий кандидат техн. наук Кузякин Ю.И.). В 1982 г. ВЦ вновь был преобразован в ОВТ (заведующий кандидат техн. наук Кузякин Ю.И.). В связи с формированием крупных многомашинных комплексов (комплекс на базе ЭВМ БЭСМ-6, Эльбрус1-К2, комплекс на базе ЕС-1045, ЕС-1066) в 1986 году ОВТ реорганизуется в два отдела - Отдел Многомашинных Вычислительных Комплексов (заведующий кандидат техн. наук Кузякин Ю.И.) и Отдел Информационно-Вычислительных Систем (заведующий кандидат технических наук Хохлов И.А.), в состав которого была введена Лаборатория Операционных Систем (заведующий кандидат техн. наук Хохлов И.А.). В 1991 г. на основе этих двух отделов формируется Отдел Вычислительной Техники (заведующий кандидат технических наук Гольдштейн М.Л.) и Отдел Вычислительных Сетей (заведующий доктор технических наук Кузякин Ю.И.). Такая структура сохраняется и по сегодняшний день.

Вычислительный центр Института математики и механики (независимо от названия структурного подразделения) практически с момента его организации работает в режиме ВЦ коллективного пользования и в настоящее время его услугами пользуются научные подразделения Уральского отделения РАН, ВУЗ'ы и организации Уральского региона.

Развитие ВЦ ИММ всегда шло по пути внедрения самых новых, самых передовых вычислительных средств и технологий. За почти 40-летнюю историю в ВЦ ИММ эксплоатировались ЭВМ: Урал, М20, БЭСМ-2, М220, БЭСМ-6, Эльбрус1-К2, Эльбрус1-КБ, ЕС-1060, ЕС-1045, ЕС-1066, весь спектр ЭВМ серии СМ и многие другие. Непрерывно шли работы и по модернизации центрального и периферийного оборудования. С 1979 года значительное место в работах отдела стала занимать тематика "Создание региональной Академсети".

 Основные направления работы отдела
  • разработка перспективных направлений развития вычислительной техники в Институте;
  • разработка и реализация конкретных проектов оснащения Института материально-технической базой средств вычислительной техники;
  • развитие технических и программных средств локальной информационно-вычислительной сети (ЛИВС) ЭВМ;
  • внедрение новых аппаратных и программных средств;
  • эксплуатация средств вычислительной техники.

С 1994 г. в качестве приоритетного направления развития вычислительной техники в Институте выбрана линия систем с массовым параллелизмом-МВС (многопроцессорные вычислительные системы). В рамках этого направления отделом проведены и ведутся работы по:

  • изучению архитектуры, программного обеспечения вычислительных модулей на основе суперскалярных микропроцессоров и транспьютеров 3 и 4 поколений;
  • изучению и совершенствованию топологии транспьютерных сетей;
  • решению задач визуализации графической подсистемы МВС;
  • наращиванию вычислительной мощности;
  • увеличению объема оперативной памяти;
  • совершенствованию топологии и развитию технических и программных средств ЛИВС.

В настоящее время в составе ОВТ имеют место два сектора:

  • сектор параллельных вычислительных систем - заведующий кандидат технических наук Гольдштейн М.Л.;
  • сектор локальных сетей - заведующий кандидат технических наук Закурдаев Н.В.

Сектор локальных сетей был создан в 1995 г. на базе лаборатории малых машин (заведующий к.т.н. Закурдаев Н.В.), включенной в 1994 г. в состав Отдела вычислительной техники. Лаборатория была образована в 1986 г. Основные работы лаборатории в 1986 - 1990 годах были связаны с построением региональной части академической сети ЭВМ, первая очередь которой была завершена в 1990 г.

В период с 1991 по 1993 годы коллективом лаборатории малых машин был наработан опыт создания и использования локальной сети на основе идеологии открытых систем. В частности, была создана локальная сеть персональных и мини-ЭВМ, функционирующая под управлением ОС типа UNIX BSD 4.3 со стеком протоколов TCP/IP. В качестве основы для разработки информационных приложений использовалась версия СУБД UNIFY. Эти средства были использованы для разработки подхода к реализации информационных систем, распределенных в локальной сети персональных и мини-ЭВМ.

Задел лаборатории был эффективно реализован в 1994 - 1996 г. при разработке и реализации проекта создания локальной информационно-вычислительной сети и ее дальнейшем развитии как средства коллективного доступа к вычислительным и информационным ресурсам суперкомпьютерного вычислительного центра.

В составе Отдела имеются также три неструктурных эксплуатационных группы.

 Немного истории развития ВЦ

В марте 1961 г. первая, полученная институтом ЭВМ "Урал" была пущена в эксплуатацию. 1 апреля 1961 г. состоялось официальное открытие Свердловского отделения Математического института им.Стеклова. Эта дата и стала официальной точкой начала деятельности ВЦ.

Дальнейшее его развитие шло по пути совершенствования средств вычислительной техники (ВТ) за счет приобретения новых, более мощных и более удобных для пользователя машин. В 1963 году были пущены в эксплуатацию машины М-20 и БЭСМ-2, а через год и еще одна машина М-20. Параллельно с внедрением самих машин силами ВЦ проводились работы по созданию систем, обеспечивающих возможность работы: с графическими и терминальными подсистемами, внешними запоминающими устройствами и т.п.

Работа с графикой шла по пути непрерывного совершенствования аппаратного и программного обеспечения. В 1967 г. Институт начал сотрудничество с фирмой "Benson", которая в течение более чем 20 лет обеспечивала эффективной и высоконадежной графической техникой. Работы в области создания различного рода интерфейсов для связи с графопостроителями фирмы "Benson" велись специалистами ВЦ практически до 1990 г.

В 1970 г. введена в эксплуатацию вычислительная машина М-220М, а уже в следующем году была проведена модернизация ОЗУ и усовершенствован вывод информации за счет подключения печатающего устройства МП-15. В 1971 г. в Институте появилась первая машина БЭСМ-6. В 1974 г. приобретен и установлен вычислительный комплекс АСВТ М-6000 и по специальному каналу соединен с БЭСМ-6. В 1975 г. введена в эксплуатацию ЭВМ Наири-3. В 1975 г. БЭСМ-6 подверглась первой серьезной модернизации, а именно: введено МОЗУ-64к, установлены накопители на сменных магнитных дисках типа ЕС-5050 - 4 шт. и CDS-111 (USA) - 6шт., проведены изменения в схеме коммутатора магнитных дисков, установлено и подключено перфокарточное быстродействующее (1200 карт/мин.) вводное устройство, введена новая операционная система ДИАПАК. В 1977 г. установлена вторая машина БЭСМ-6. В 1978 г. установлена аппаратура сопряжения, которая позволила создать терминальную сеть из 64 рабочих мест, а в 1988 г. эта аппаратура была заменена на более современную с доступом пользователей ко всем машинам и с увеличением количества терминалов до 128. На базе машин БЭСМ-6 был сформирован 2-х машинный комплекс со связью типа "почтовый ящик".

В дальнейшем техническое оснащение ВЦ Института было решено вести по линиям БЭСМ-Эльбрус и ЕС ЭВМ. В результате в 1982 г. в Институте появилась первая машина единого семейства ЕС-1060.

В 1987 г. линия БЭСМ-6 была продолжена многопроцессорным вычислительным комплексом Эльбрус1-К2, а ЕС-1060 перебазировалась в машинные залы Института горного дела, куда был установлен и 2-х машинный комплекс ВК ЕС-1045-2М. Параллельно с внедрением новых вычислительных комплексов и систем велась непрерывная работа по модернизации существующих машин БЭСМ-6. В них магнитная оперативная память была в 1988 г. заменена на полупроводниковую, установлены коммутатор быстрых дисков и МОМ-диски. Велась модернизация и машины ЕС-1060. В ее состав были интегрированы накопители на сменных магнитных дисках (4 шт.) по 200 Мб фирмы BASF. Линия Эльбрус в 1990 г. была продолжена комплексом Эльбрус1-КБ, а в комплексе ВК ЕС-1045-2М одна из машин ЕС-1045 была заменена на машину ЕС-1066. Все машины линии БЭСМ-Эльбрус были доступны через аппаратуру сопряжения всем пользователям как в пределах Института, так и в пределах Уральского Отделения. То же самое касается и машин линии ЕС. Параллельно с линией больших ЭВМ общего пользования развивалась и сетевая тематика на базе информационно-вычислительных комплексов. Первый такой комплекс был получен Институтом в 1980 г. Это был ИВК-7 на базе минимашины СМ-3. В дальнейшем по этой тематике были установлены в 1981 г. ИВК-2 на базе СМ-4 и, в 1982 году, еще один ИВК-2, затем ИВК на базе СМ-1420 и СМ-1700. На этих ИВК был создан центр коммутации пакетов, интерфейсы и каналы связи с машинами типа БЭСМ-Эльбрус, и все это развивалось в рамках программы создания Академсети.

В 1993 г. Институт взял направление на развитие вычислительных систем с массовым параллелизмом. И в 1994 г. такая система из 6-ти вычислительных узлов была установлена и опробована на ряде прикладных программ. С целью обеспечения многопользовательского режима в Институте была в этом же году реализована локальная информационно-вычислительная сеть типа Ethernet. Год 1994 стал годом перехода на новую вычислительную технику как в области вычислительных средств, так и в области средств телекоммуникации. С 1995 г. ведутся работы: по повышению производительности многопроцессорной системы, по расширению ее возможностей, по развитию локальной сети, по включению ЛС Института в региональную и глобальную сеть, по внедрению средств телекоммуникации с целью обеспечения удаленного доступа (пользователи УрО и региона) к вычислительным мощностям ИММ.

 Создание суперкомпьютерного ВЦ

Начиная с 1994г. в Институте математики и механики УрО РАН активно ведутся работы по созданию и развитию суперкомпьютерного вычислительного центра на базе отечественных ЭВМ серии МВС-100, МВС-1000. Инициатором этих работ был академик А.Ф. Сидоров, а головной организацией в Уральском отделении РАН определен Институт математики и механики. Работы велись в рамках Государственной комплексной программы разработки отечественных супер-ЭВМ МВС-100 и МВС-1000 в кооперации с институтами ИПМ им. М.В. Келдыша РАН и НИИ "Квант". Менее, чем за 10 лет вычислительная база центра прошла путь от транспьютерных станций на базе персональных компьютеров до систем третьего поколения МВС-1000. В качестве основных этапов развития можно назвать:

1994-1999 гг.

Формирование вычислительного пространства на базе МВС-100. Первая модификация МВС-100 из 8-ми процессоров положила начало освоению на Урале высокопроизводительных массивно-параллельных систем, техники параллельного программирования и счета, созданию и развитию систем коллективного теледоступа как в рамках ИММ (локальная информационно-вычислительная сеть), так и в рамках УрО РАН и региона в целом (региональная сеть).

1999 г.

Завершено формирование МВС-100. В результате получена единственная в России действующая вычислительная система МВС-100 из 128-ми процессоров (рис. 1).

Рис. 1. Вычислительная система МВС-100/128.
Пиковая производительность 12,0 Gflops.
128 микропроцессоров типа Intel 80860 XP,
объединенных транспьютерной (Т805) сетью типа "конверт"

1997-1999 гг.

Установлена и начата опытная эксплуатация вычислительной системы 3-го поколения МВС-1000 с DSP-микропроцессорами в качестве коммуникационной среды (рис. 2) В качестве счетного процессора использованы микропроцессоры Alpha 21164. В качестве средств коммуникации - DSP TMS 320 C44 в МВС и Fast Ethernet (коммутатор Super Stack II Switch 3300) в отладочной станции. Функции HOST-машины выполняет отладочная станция. Пиковая производительность системы 2,5 Gflops.

Рис. 2. Многопроцессорная вычислительная система МВС-1000/2 и отладочная станция

1998 г.

По инициативе и при активном участии академика А.Ф.Сидорова создана по программе Интеграция совместно с УрГУ одна из первых в России кафедра высокопроизводительных параллельных компьютерных технологий. Сформированный в виде учебного класса (рис. 3) вычислительный кластер предназначен как для обучения студентов, так и для обработки счетных задач.

Рис. 3. Учебно-исследовательский класс-кластер ИММ УрО РАН - УрГУ

2001 г.

Установлена многопроцессорная вычислительная система МВС-1000/16 (рис. 4) с популярной на сегодня архитектурой LINUX-кластера. Топология кластера предусматривает наличие двух внутренних сетей (управляющей и связной), что благоприятно сказывается на уменьшении временных задержек при пересылке сообщений.

Рис. 4. Многопроцессорная вычислительная система МВС-1000/16 с архитектурой LINUX-кластера. Пиковая производительность 13,0 Gflops

2001–2002 гг.

Вычислительные ресурсы МВС-1000/16 и научно-образовательного класса объединены в единое вычислительное пространство выделенной локальной сети. Таким образом обеспечивается круглосуточная загрузка дорогостоящих ресурсов. Все ресурсы РСКЦ доступны научной общественности УрО РАН и ВУЗ’ов региона. Пользователи обеспечены необходимым набором инструктивного материала, классифицированного по уровням подготовки, а также полной технической информацией о режимах работы РСКЦ, состоянии очереди прохождения задач.  С введением 2002 г. канала на Москву с пропускной способностью 45 Мбит/с, вычислительные ресурсы МСЦ стали доступны и реализация схемы прохождения задач вычислительные ресурсы института - вычислительные ресурсы СКЦ - вычислительные ресурсы МСЦ стала реальностью (рис. 5).

Рис. 5. Структура прохождения задач параллельного счета

2003 г.

В 2001-2003 г.г. ИММ УрО РАН совместно с ФГУП НИИ "Квант", ИПМ РАН им. М.В. Келдыша были сформированы требования к архитектуре новой суперЭВМ с пиковой производительностью порядка 160 млрд. оп/сек. В 2003 году система МВС-1000/17ЕК (рис. 6) была получена, установлена в СКЦ ИММ и пущена в опытную эксплуатацию. В настоящее время новая система доступна пользователям Институтов УрО РАН через региональный узел Академсети по каналам Интернет и инфраструктуру локальной сети СКЦ ИММ. Суммарная пиковая производительность вычислительных систем суперкомпьютерного центра ИММ УрО РАН – порядка 190 миллиардов операций в секунду (2-е и 3-е места в системе РАН).

Рис. 6. МВС-1000/17ЕК

 

В 2003 г. были продолжены работы по дальнейшему развитию вычислительных и информационных ресурсов СКЦ. Получила новое качество и инфраструктура удаленного коллективного использования (локальная сеть ИММ) имеющихся ресурсов.

С целью более эффективного решения задач с малоразмерными межпроцессными обменами было принято решение о приобретении многопроцессорной системы с общей памятью. В качестве таковой был выбран комплекс PRIMEPOWER 850 (Fujitsu-Siemens Computers GmbH) (рис. 7). В качестве стартовой конфигурации взята 8-ми –процессорная система со SPARC 64 1.08 GHz процессорами. Операционная среда Solaris 9. Производительность на тесте TPC-C порядка 180 000 транзакций в сек.

Наличие многопроцессорных вычислительных систем с архитектурой MPP (системы типа МВС) и SMP (PP850) позволит находить оптимальные решения при подборе вычислителей к конкретным типам задач.

Рис.7. Вычислительный комплекс PP850

Продолжены работы по совершенствованию и развитию инфраструктуры коллективного удаленного доступа к вычислительным и информационным ресурсам ИММ.

  1. Проведена структуризация сети на основе 1 ГБит/с распределенной магистрали.
  2. Сформированы элементы системы управления на основе стратегий, предложенной группой IETF:
    • консоль задания стратегий;
    • сервер
    • хранилище стратегий;
    • точка принятия решений (сервер, обеспечивающий выборку правил из хранилища и выработку решений);
    • выбраны технические средства для формирования точек реализации стратегий.
  3. Разработан опытный вариант системы управления качеством обслуживания пользователей ресурсами СКЦ, функционирующей в полуавтоматическом режиме.
  4. Разработана технология формирования новых профилей для MIB (Management Information Base) управляемых коммутаторов, что позволило организовать систему мониторинга и управления трафика.
  5. Разработан проект развития локальной сети СКЦ ИММ в лабораторном корпусе.
  6. Начаты работы по формированию центрального узла локальной сети СКЦ ИММ в лабораторном корпусе.
  7. Проложен оптоволоконный канал связи центральных узлов основного и лабораторного корпусов ИММ.

В 2003-2004 гг. были продолжены совместные работы с УрГУ по программе "ИНТЕГРАЦИЯ". В рамках этих работ проведена модернизация учебно-исследовательского класса (рис.8). Увеличено количество рабочих мест, в 2,5 раза увеличена пиковая производительность кластера.

Рис. 8. Модернизированный учебно-исследовательский класс-кластер

На сегодняшний день структура СКЦ ИММ имеет вид:

Проведена модернизация вычислительной системы МВС 1000/17ЕК. В 2 раза увеличен объем оперативной памяти, в транспортную сеть введен дополнителный 1,0 ГБит/с коммутатор, реализован механизм бондирования линков. Для удобства администрирования вычислителем введен 16-портовый коммутатор D-Link (рис. 9). Модернизорована система электропитания вычислителей путем установки мощного источника бесперебойного питания APC Symmetra (рис. 10) и автоматической системы переключения силовых источников.

Рис. 9. Модернизированная cистема МВС 1000/17ЕК

Рис. 10. Система электропитания APC Symmetra

 

 

 

2. Решение фундаментальных и прикладных ключевых задач, обусловливающих научно-технический прогресс в экономике и бизнесе и ведущих к получению новых знаний и информации, требует новых всё более производительных информационных систем (ИС). Одно из главных направлений повышения производительности ИС - применение параллельных вычислительных технологий и параллельных структур, базирующихся на мировых достижениях в микроэлектронике, дискретной математике, логике, информациологии, системных исследованиях и многих других областях знаний.

Важнейшей законченной научно-исследовательской и опытно-конструкторской работой, выполненной в 2005 г., которая готова к практическому применению, является:

Вычислительный комплекс на базе суперкомпьютера МВС1000/2ББ.

 

Сформированы вычислительный комплекс на базе суперкомпьютера МВС1000/2ББ (рис. 11) и инфраструктура, обеспечивающая коллективный удаленный доступ к его ресурсам и надежную круглосуточную работу.

Рис. 11. МВС 1000М/2ББ

 

Комплекс предназначен для решения широкого круга научных и прикладных задач.

Краткая характеристика суперкомпьютера МВС1000М/2ББ:

- архитектура МРР;
- процессоры
Alpha 21264, 256 шт.;
- оперативная память 512.0 Гбайт;

- коммуникационная среда Myrinet (рабочая) и FastEthernet (служебная).

Пиковая производительность – 768,0 Гфлопс

В результате установки суперкомпьютера МВС1000/2ББ:

- пиковая производительность вычислительных ресурсов СКЦ возросла в

2,83 раза;

- СКЦ ИММ УрО РАН вышел по производительности на первое место в

Уральском регионе;

- в списке ТОР 50 МВС1000/2ББ занимает (6-7) место по пиковой

производительности.

В табл.1 показан современный уровень оснащенности вычислительной техникой СКЦ ИММ УрО РАН. На рис. 12 дана динамика роста суммарной пиковой производительности вычислительных ресурсов УрО РАН за последние пять лет.

На рис. 13 представлены основные компоненты развития СКЦ, характеризующие качественные и количественные изменения в суперкомпьютерном оснащении УрО РАН.

 

 

Таблица 1

Вычислительные ресурсы СКЦ ИММ УрО РАН

 

п/п

Модель

вычислителя

 

Кол-во

процес-

соров

Тип

процессора

Объем

оперативной

памяти,

Гбайт

Коммуникационная

среда

 

Пиковая

производитель-

ность,

Гфлопс

1

 

МВС 1000/16

16

Pentium 3

(800.0 МГц)

2

Fast Ethernet x 2

13

2

 

МВС 1000/17ЕК

34

Xeon

(2.4 ГГц)

68

Gbit Ethernet x 2

160

3

 

PrimePower 850

8(16*)

 

SPARC 64

32(64*)

 

Коммутатор

48(96*)

4

Учебно-исследователь-ский вычислительный комплекс

16

Pentium 3

(700.0 МГц) +

Pentium 4

(2,4 ГГц)

6

 

Fast Ethernet

50

 

5

 

МВС-1000М

256

Alpha 21264

512

Myrinet, Fast Ethernet

768

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рис.12. Динамика роста суммарной пиковой производительности

вычислительных ресурсов УрО РАН и ИММ.

 

 

 

Рис. 13. Показатели развития СКЦ на базе параллельных вычислительных систем и

технологий

 

 

 

В 2005 году сформирован и выполнен план мероприятий по:

-адаптации суперкомпьютера МВС1000М/2ББ к работе в условиях СКЦ ИММ УрО РАН;

-установке и предварительному тестированию МВС1000/2ББ;

-подготовке инженерных инфраструктур, их тестированию и оценке

готовности.

Проведена модернизация консоли управления МВС-1000/16: установлены коммутаторы типа D-Link на 16 направлений с выходом на терминальный пункт.

Модернизированы центральные узлы локальной сети в старом и новом зданиях ИММ:

-увеличено количество магистральных каналов 1,0 Гб/c в результате чего развита система транспортировки данных в ЛИВС путем формирования 5-ти 2-х ступенчатых сегментов 1000/100 Mб/c;

-развита аппаратно-программная поддержка парка Intranet-серверов;

-осуществлён реинжиниринг системы электропитания.

Разработана система интеллектики конкурирующих транспортных потоков в среде коллективного теледоступа к ресурсам СКЦ.

Таким образом, продолжено развитие:

-вычислительных ресурсов, отвечающих современному уровню и потребностям научной общественности УрО РАН и ВУЗов города;

-средств обеспечения круглосуточной безотказной работы вычислительных структур и средств коллективного теледоступа к ним;

-ЛИВС с целью увеличения количества рабочих мест пользователей СКЦ,

увеличения пропускной способности и реактивности сети, повышения надежности, управляемости, наблюдаемости и диагностируемости сети;

 

Создан учебно-исследовательский класс в составе Windows – и Linux – кластеров, объединенных выделенной локальной сетью с суперкомпьютером МВС 1000/16, количество рабочих мест – 16. Доступ к ресурсам кластеров непосредственно с рабочих мест класса, по локальной сети, Интернету.

 

Сведения о приборном парке, методах и методиках исследований

а) Суперкомпьютеры параллельного действия семейства МВС-100 и МВС-1000:

-МВС-100/128 (пиковая производительность 12,0 Гфлопс), 1998г. вып.,

-МВС-1000/16 (пиковая производительность 13,0 Гфлопс), 2000г. вып.,

-МВС-1000/17К (пиковая производительность 160,0 Гфлопс), 2003г. вып.

-МВС-1000М/2ББ (пиковая производительность 768,0 Гфлопс), 2005г. вып.

Все МВС отечественного производства (ФГУП Квант, г. Москва),

-PrimePower-850 (производительность на тесте ТРС-С 180000 транз./сек, пиковая производительность 48,0 Гфлопс), 2003г. вып. (Futjitsu-Siemens);

б) Структурированная локальная информационно-вычислительная сеть (ЛИВС) с распределенной гигабитной магистралью, сформированная на коммутаторах фирмы 3Com Switch 4005 г. вып. 2001г., 2003г., Switch Super Stack 4400 1996-2005гг. вып. обеспечивающая коллективный удаленный доступ к вычислительным и информационным ресурсам;

в) Информационная среда, включающая сервер прохождения задач (Futjitsu-Siemens TX300r 2003г. вып.) на суперкомпьютерах, WWW-сервер с необходимым набором вспомогательных и методических материалов для освоения техники параллельного счета и постановки задач на машинах параллельного действия, почтовый, FTP-, Intranet (все Futjitsu-Siemens TX300r 2003г. вып.) и др. серверы.

Оборудование находится на балансе ИММ УрО РАН.

Условия участия в работе

Вычислительные ресурсы доступны пользователям через региональный узел Академсети по каналам Интернет и инфраструктуру локальной сети СКЦ ИММ. Консультационно-методический материал расположен на www.imm.uran.ru. Возможны консультации непосредственно в ИММ. Пароли и коды доступа согласовываются с администратором.

Форма выдачи результатов

По каналам Интернет или локальной сети.

Примеры проведенных исследований

Разработаны алгоритмы и созданы комплексы параллельных программ,

направленных на решение следующих задач:

а) конструирование оптимального программного управления выведения полезной нагрузки на орбиту при сложных фазовых ограничениях и составном характере движения;
б) исследование и моделирование системы высокоточной навигации и наведения движущихся объектов по радиолокационному полю, создание новых алгоритмов обработки и распознавания радиолокационных изображений и алгоритмов анализа пространственных сцен;
в) численное исследование задач упругости, пластичности, теплопроводности и диффузии, основанное на вариационных методах и методах граничных интегральных уравнений, допускающих высокий уровень распараллеливания вычислений;
г) эффективное параллельное моделирование систем с хаотической динамикой на примере модели "forest-fire", находящихся в состоянии самоорганизованной критичности;
д) построение на сетках функции цены дифференциальной игры сближения-уклонения;
е) эффективное построение сингулярных поверхностей в дифференциальных играх.

 Список публикаций за последние годы.
  1. Гольдштейн М.Л., Закурдаев Н.В., Развитие локальной информационно- вычислительной сети регионального суперкомпьютерного центра на базе МВС-100, МВС-1000// Тезисы докладов Всероссийской научной конференции "Научный сервис в сети Интернет", Новороссийск, 2000, .
  2. Гольдштейн М.Л., Самофалов В.В., Формирование регионального суперкомпьютерного центра на базе ЭВМ семейства МВС-100, МВС-1000// Сборник трудов Всероссийской научной конференции "Высокопроизводительные вычисления и их приложения", Черноголовка, 2000, .
  3. Гольдштейн М.Л., Закурдаев Н.В., Ротанов В.Т., Об использовании перспективных сетевых технологий при развитии локальной сети суперкомпьютерного вычислительного центра// Сборник научных трудов Института математики и механики УрО РАН "Алгоритмы и программные средства параллельных вычислений", Екатеринбург, 2000, вып.4.
  4. Бердышев В.И., Гасилов В.Л., Гольдштейн М.Л., Применение высокопроизводительных вычислительных технологий для решения прикладных задач в Институте математики и механики УрО РАН// Материалы Всероссийского научно-технического совещания ²Создание телекоммуникационной среды высокопроизводительных технологий в регионах России: состояние, проблемы², Уфа, 2000, .
  5. Гольдштейн М.Л., Закурдаев Н.В., Печеркин С.С., Плеханов Д.М., Ротанов В.Т., Средства формирования сервис-среды локальной сети суперкомпьютерного центра ИММ УРО РАН// Сборник научных трудов Института математики и механики УрО РАН "Алгоритмы и программные средства параллельных вычислений", Екатеринбург, 2001, вып.5.
  6. Бердышев В.И., Гольдштейн М.Л., Кузякин Ю.И., Хохлов И.А., Телекоммуникационные, вычислительные и информационные ресурсы Уральского отделения РАН// Сб. докладов Всероссийской научно-методической конференции «Телематика 2001», С-Петербург, 2001, .
  7. Goldshtein M.L., Zakurdaev N.V., Plehanov D.M., The organization of the prioritized access to the MBC// International Conference on Telematics and Web-Based Education, St-Petersburg, 2001, .
  8. Гольдштейн М.Л., Закурдаев Н.В., Плеханов Д.М., Управление трафиком локальной сети суперкомпьютерного центра ИММ УрО РАН// Труды Всероссийской научной конференции "Научный сервис в сети Интернет", Новороссийск, 2001, .
  9. Гольдштейн М.Л., Матвеев А.В., Операционная среда целевой системы// Cборник материалов межвузовской электронной научно-технической конференции ²Управляющие и вычислительные системы. Новые технологии², Вологда, 2001, .
  10. Гольдштейн М.Л., Матвеев А.В., Многопроцессорная система сбора и обработки данных научного эксперимента// Материалы международного научно-практического семинара «Высокопроизводительные параллельные вычисления на кластерных системах», Нижний Новгород, 2001, .
  11. M.L. Goldshtein, A.V. Matveyev, The Usage of Intellectual Input-Output Cards for Forming of Medical Complexes// Proceedings of the IASTED International Conference “Automation, Control, and Information Technology”, Novosibirsk, Russia, 2002, pp. 37-39.
  12. M.L. Goldshtein, A.V. Matveyev, The Structurally-Functional Modelling of Multiprocessor Subsystem of Input and Preprocessing// Proceedings of the IASTED International Conference “Automation, Control, and Information Technology”, Novosibirsk, Russia, June 10-13, 2002, pp. 370-375.
  13. M.L. Goldshtein, A.V. Matveyev, The Semi-Formal Model of Multiprocessor Input-Preprocessing Subsystem// Proceedings of the IV International Conference “Complex Systems: Control and Modelling Problems”, Samara, Russia, June 17-23, 2002, pp. 227-233.
  14. M.L. Goldshtein, A.V. Matveyev, The complex for elektroimpulse therapy on the base of boards with DSP// Proceedings of the 5-th International Conference “Physics and Radioelectronics in Medicine and Ecology”, Vladimir, Russia, June 25-28, 2002, pp. 182-185.
  15. M.L. Goldshtein, A.V. Matveyev, The Informal Modeling of Input-Preprocessing Subsystems For Scientific Research// Proceedings of the 10th Digital Signal Processing Workshop, 2nd Signal Processing Education Workshop. Callaway Gardens, Pine Mountain, Georgia, USA, October 13-16, 2002, .
  16. Гольдштейн М.Л., Закурдаев Н.В., Самофалов В.В., Подготовка специалистов в области высокопроизводительных вычислений на базе суперкомпьютерной инфраструктуры ИММ УрО РАН// Сб. докладов Всероссийской научно-методической конференции «Телематика 2002» С-Петербург, 2002, .
  17. Бердышев В. И., Решетов В. М., Гольдштейн М. Л., Закурдаев Н.В., Создание сети СКЦ как основы развития вычислительного сервиса в Уральском отделении РАН// Труды Всероссийской научной конференции "Научный сервис в сети Интернет", Новороссийск, 2002, .
  18. Гольдштейн М.Л., Матвеев А.В., Моделирование многопроцессорной подсистемы ввода и первичной обработки информации автоматизированных систем научных исследований// Сборник научных трудов Института математики и механики УрО РАН "Алгоритмы и программные средства параллельных вычислений", Екатеринбург, 2002, вып.6.
  19. Бердышев В. И., Гольдштейн М. Л., Кузякин Ю.И., Самофалов В.В., Хохлов И.А., Телекоммуникационные, вычислительные и информационные ресурсы Уральского отделения РАН// Телекоммуникации и информатизация образования, 2002, № 5.
  20. Гольдштейн М. Л., Закурдаев Н.В., Меркульев А.А., Сборник научных трудов Института математики и механики УрО РАН "Алгоритмы и программные средства параллельных вычислений"// Екатеринбург, 2003, вып.7.
  21. М.Л.Гольдштейн, Н.В.Закурдаев, А.Е.Малышев, Моделирование процесса передачи приоритетных данных// Сб. докладов Всероссийской научно-методической конференции «Телематика - 2003», С-Петербург, 2003, .
  22. М.Л. Гольдштейн, А.В. Матвеев, Автоматизированная система кулонометрического контроля// Приборы и техника эксперимента, 2003, № 6, 48-54.
  23. М.Л.Гольдштейн, Н.В.Закурдаев, Д.Д.Кайкы, Н.В.Меркульев, Интерфейс доступа к управляющей информации коммутаторов// Сб. докладов Всероссийской научно-методической конференции «Телематика - 2004», С-Петербург, 2004, .
  24. Гольдштейн М.Л., Матвеев А.В., современные средства аналогового и цифрового ввода-вывода// Датчики и системы, 2004, № 6, 68-76.
  25. Гольдштейн М. Л., Закурдаев Н.В., Кайкы Д.Д., Меркульев А.А., Моделирование критических ситуаций в сети СКЦ и методы их парирования средствами сервис-среды// Сборник научных трудов Института математики и механики УрО РАН "Алгоритмы и программные средства параллельных вычислений" Екатеринбург, 2004, вып.8.
  26. Гольдштейн М. Л., Закурдаев Н.В., Печеркин С.С., Муравьев А.А., Моделирование сервис-среды локальной сети СКЦ// Сборник научных трудов Института математики и механики УрО РАН "Алгоритмы и программные средства параллельных вычислений", Екатеринбург, 2004, вып.8.
  27. М.Л.Гольдштейн, Н.В.Закурдаев, Д.Д.Кайкы, Проектирование и разработка элементов сервис – среды СКЦ// Сб. трудов Всероссийской научно-методической конференции «Телематика - 2005», С-Петербург, 2005, .
  28. В.И.Бердышев, М.Л.Гольдштейн, И.А.Хохлов, Концепция программы информатизации УрО РАН на 2006-2008гг.// Сб. трудов Всероссийской научной конференции "Научный сервис в сети Интернет: технологии распределенных вычислений", Абрау-Дюрсо, 2005, 125-127.
  29. М.Л.Гольдштейн, С.Л.Гольдштейн, С.С.Печёркин, Оценка уровня информатизации научной организации// Сб. Трудов I-ой Международной конференции «Системный анализ и информационные технологии» (САИТ-2005), -Переславль-Залесский, 2005, 147-148.
  30. Гольдштейн С.Л., Гольдштейн М.Л., Печеркин С.С., Концепция системной интеграции с выходом на электронную нервную систему предприятия// Областная научно-практическая конференция " Информационно-математические технологии в экономике, технике и образовании", Екатеринбург, 2005, .
  31. Бердышев В.И., Гольдштейн М.Л., Суперкомпьютерная база современной науки// Вестник УрО РАН, 2005, № 3(13), 112-120.
  32. Гольдштейн М.Л., Закурдаев Н.В и др., Управление трафиком в среде теледоступа к ресурсам СКЦ// Телекоммуникации, 2006, №3, 23-29.
  33. Гольдштейн М.Л., Системная интеграция как основа развития информатизации// Сб. трудов XI Международной открытой научной конференции "Современные проблемы информатизации-2006", 2006, 396-397.