Техасский вычислительный центр - Texas Advanced Computing Center

Texas Advanced Computing Center ( TACC ) в Университете штата Техас в Остине , США , является передовым Научно - исследовательский вычислительный центр , который обеспечивает всеобъемлющий передовые вычислительные ресурсы и службы поддержки исследователей в Техасе и на всей территории США. Миссия TACC - способствовать открытиям, которые продвигают науку и общество за счет применения передовых компьютерных технологий. Специализируясь на высокопроизводительных вычислениях, научной визуализации, системах анализа и хранения данных, программном обеспечении, исследованиях и разработках и интерфейсах порталов, TACC развертывает и управляет передовой вычислительной инфраструктурой, чтобы обеспечить выполнение вычислительных исследований для преподавателей, сотрудников и студентов UT Austin. TACC также предоставляет консультации, техническую документацию и обучение для поддержки исследователей, использующих эти ресурсы. Сотрудники TACC проводят исследования и разработки в области приложений и алгоритмов, проектирования / архитектуры вычислительных систем, а также инструментов и сред программирования.

Основанная в 2001 году, TACC является одним из центров передового опыта в области вычислений в США. Благодаря проекту Национального научного фонда (NSF) Extreme Science and Engineering Discovery Environment (XSEDE) ресурсы и услуги TACC становятся доступными для национального академического исследовательского сообщества. TACC расположен на территории исследовательского кампуса JJ Pickle Research Campus UT .

В число сотрудников TACC входят исследователи из других департаментов и центров UT в Остине, из университетов Техаса в Консорциуме высокопроизводительных вычислений через Техас , а также из других университетов США и государственных лабораторий.

Лаборатория визуализации

Проекты

Исследования и разработки TACC поддерживаются несколькими федеральными программами, в том числе:

Программа NSF XSEDE (ранее Teragrid )

XSEDE, финансируемая Национальным научным фондом (NSF), представляет собой виртуальную систему, которую ученые могут использовать для интерактивного обмена вычислительными ресурсами, данными и опытом. XSEDE - это самый мощный и надежный комплекс интегрированных передовых цифровых ресурсов и услуг в мире. TACC - один из ведущих партнеров проекта XSEDE, ресурсы которого включают более одного петафлопа вычислительной мощности и более 30 петабайт онлайн-хранилища и архивных данных. В рамках проекта TACC предоставляет доступ к Ranger, Lonestar, Longhorn, Spur и Ranch через квартальные отчисления XSEDE. Сотрудники TACC поддерживают исследователей XSEDE по всей стране и проводят исследования и разработки, чтобы сделать XSEDE более эффективным и действенным. Партнерство XSEDE также включает: Университет Иллинойса в Урбана-Шампейн, Университет Карнеги-Меллона / Университет Питтсбурга, Техасский университет в Остине, Университет Теннесси в Ноксвилле, Университет Вирджинии, Образовательный фонд Shodor, Исследовательская ассоциация юго-восточных университетов, Чикагский университет, Калифорнийский университет в Сан-Диего, Университет Индианы, суперкомпьютерный центр Юлиха, Университет Пердью, Корнельский университет, Университет штата Огайо, Калифорнийский университет в Беркли, Университет Райса и Национальный центр атмосферных исследований. Его возглавляет Национальный центр суперкомпьютерных приложений Университета Иллинойса.

Проект исследовательской киберинфраструктуры Техасского университета (UTRC)

Проект киберинфраструктуры UT System Research (UTRC) - это инициатива, которая позволяет исследователям во всех 15 учреждениях UT System получить доступ к современной вычислительной исследовательской инфраструктуре. В рамках UTRC исследователи систем UT имеют уникальный доступ к ресурсам TACC, включая TACC Lonestar, национальный ресурс XSEDE, и Corral, высокопроизводительную систему хранения для всех типов цифровых данных.

iPlant Collaborative

IPlant Collaborative - это 5-летний проект NSF стоимостью 50 миллионов долларов (награжден в 2008 году), в котором используются новые решения в области вычислительной науки и киберинфраструктуры для решения проблем в области наук о растениях. iPlant объединяет высокопроизводительное петасклейное хранилище, федеративное управление идентификацией, виртуализацию по запросу и распределенные вычисления на сайтах XSEDE за набором REST API. Они служат основой для представления расширяемых сообществом полноценных веб-клиентов, которые позволяют сообществу специалистов по растениям выполнять сложные биоинформатические анализы в различных концептуальных областях. В сентябре 2013 года было объявлено, что NSF продлил финансирование iPlant на второй пятилетний срок с расширением охвата на все исследования, не связанные с человеческими науками о жизни.

Партнерская программа STAR

Партнерская программа исследований в области науки и технологий предлагает компаниям возможности повысить свою эффективность за счет использования компьютерных технологий TACC. Текущие партнеры STAR включают корпорации BP, Chevron, Dell, Green Revolution Cooling, Intel и Technip.

Портал Digital Rocks

Устойчивое, открытое и простое в использовании хранилище, которое систематизирует изображения и связанные с ними экспериментальные измерения различных пористых материалов, улучшает доступ к результатам анализа пористой среды для более широкого сообщества геолого-геофизических и инженерных исследователей, не обязательно обученных информатике или анализу данных. и повышает продуктивность, научные исследования и инженерные решения, основанные на данных.

Кластеры суперкомпьютеров

Давка

Паническое бегство - одна из самых мощных машин в мире для открытых научных исследований. Stampede, финансируемый грантом Национального научного фонда ACI-1134872 и созданный в партнерстве с Intel, Dell и Mellanox, был запущен в производство 7 января 2013 года. Stampede состоит из 6400 узлов, 102400 ядер ЦП, общей памяти 205 ТБ, всего 14 ПБ и 1,6 Локальное хранилище PB. Основная часть кластера состоит из 160 стоек основных вычислительных узлов, каждая из которых оснащена двумя 8-ядерными процессорами Xeon E5-2680, сопроцессором Xeon Phi и оперативной памятью 32 ГБ. Кластер также содержит 16 узлов с 32 ядрами и оперативной памятью 1 ТБ каждый, 128 «стандартных» вычислительных узлов с графическими процессорами Nvidia Kepler K20 и другие узлы для ввода-вывода (в файловую систему Lustre ), входа в систему и управления кластером. Stampede может выполнять 9,6 квадриллиона операций с плавающей запятой в секунду.

Предварительная конфигурация Stampede заняла 7-е место в списке самых быстрых суперкомпьютеров в списке Top500 за ноябрь 2012 года с доставленной производительностью 2660 Тфлопс. Поскольку система все еще собиралась, представленный тест был запущен с использованием 1875 узлов с сопроцессорами Xeon Phi и 3900 узлов без сопроцессоров Xeon Phi. Для списка Top500 за июнь 2013 года тест был повторно запущен с использованием 6006 узлов (все с сопроцессорами Xeon Phi), обеспечив 5168 терафлопс и подняв систему на 6-е место. Тест не был повторно запущен для списка Top500 за ноябрь 2013 года, и Stampede вернулась на 7-ю позицию.

За первый год производства Stampede выполнила 2196 848 рабочих мест 3400 исследователями, выполнив более 75 000 лет научных вычислений.

Maverick

Maverick, последнее дополнение TACC к набору передовых вычислительных систем, объединяет возможности для интерактивной расширенной визуализации и крупномасштабного анализа данных, а также традиционные высокопроизводительные вычисления. Недавнее экспоненциальное увеличение размера и количества наборов цифровых данных требует новых систем, таких как Maverick, способных быстро перемещать данные и расширять статистический анализ. Maverick представляет национальному сообществу новый графический процессор NVIDIA K40 для удаленной визуализации и вычислений на графическом процессоре.

Визуализация:

  • 132 графических процессора NVIDIA Tesla K40
  • Программное обеспечение для удаленного доступа, разработанное TACC: ScoreVIS, DisplayCluster, GLuRay и др.
  • Стек программного обеспечения для визуализации: Paraview, VisIT, EnSight, Amira и другие

Данные:

  • 132 узла памяти 1/4 ТБ
  • подключен к файловой системе 20PB
  • Межкомпонентное соединение Mellanox FDR InfiniBand
  • комплексное программное обеспечение включает: MATLAB, Parallel R и др.

Одинокая звезда

Lonestar, мощный, многоцелевой ресурс для высокопроизводительных вычислений и удаленной визуализации киберинфраструктуры, - это название серии кластерных систем высокопроизводительных вычислений в TACC.

Первая система Lonestar была построена Dell и интегрирована Cray с использованием серверов Dell PowerEdge 1750 и межсоединений Myrinet с максимальной производительностью 3672 гигафлоп . В результате модернизации в 2004 году количество процессоров увеличилось до 1024, а максимальная скорость составила 6338 гигафлопс. Вторая итерация (Lonestar 2) в 2006 году была развернута с серверами Dell PowerEdge 1855 и Infiniband . (1300 процессоров, 2000 гигабайт памяти, пиковая производительность 8320 гигафлопс.) Позже в том же году была построена третья итерация кластера из серверов Dell PowerEdge 1955; он состоял из 5200 процессоров и 10,4 ТБ памяти. Lonestar 3 вошел в список Top500 в ноябре 2006 года как 12-й по скорости суперкомпьютер с пиковыми показателями 55,5 Тфлопс.

В апреле 2011 года TACC объявила об очередном обновлении кластера Lonestar. Кластер Lonestar 4 стоимостью 12 миллионов долларов заменил своего предшественника с 1888 блейд-серверами Dell M610 PowerEdge, каждый из которых оснащен двумя шестиядерными процессорами Intel Xeon 5600 (всего 22 656 ядер). Системное хранилище включает в себя параллельную файловую систему Lustre на 1000 ТБ (SCRATCH) и 276 ТБ дискового пространства локального вычислительного узла (146 ГБ / узел). Lonestar также предоставляет доступ к пяти узлам с большой памятью (1 ТБ) и восьми узлам, содержащим два графических процессора NVIDIA, предоставляя пользователям доступ к высокопроизводительным вычислениям и возможностям удаленной визуализации соответственно. Lonestar 4 вошел в список Top500 в июне 2011 года как 28-й по скорости суперкомпьютер с пиковыми показателями 301,8 Тфлопс.

Рейтинги Top500 различных итераций кластера Lonestar перечислены в материалах, представленных TACC для Top500.

Ранчо

Долгосрочное решение TACC для хранения данных - это модульная библиотечная система Oracle StorageTek , получившая название Ranch. Ranch использует файловую систему Oracle Sun Storage Archive Manager (SAM-FS) для переноса файлов в / из ленточной архивной системы с текущим объемом автономного хранилища 40 ПБ. Дисковый кеш Ranch построен на дисковых массивах Oracle Sun ST6540 и DataDirect Networks 9550, содержащих около 110 ТБ используемой вращающейся дисковой памяти. Эти дисковые массивы контролируются сервером метаданных Oracle Sun x4600 SAM-FS, который имеет 16 процессоров и 32 ГБ оперативной памяти.

Загон

Развернутая в апреле 2009 года Техасским центром передовых вычислений для поддержки науки о данных в Техасском университете, Corral состоит из 6 петабайт онлайн-диска и ряда серверов, обеспечивающих высокопроизводительное хранилище для всех типов цифровых данных. Он поддерживает базы данных MySQL и Postgres, высокопроизводительную параллельную файловую систему и доступ через Интернет, а также другие сетевые протоколы для хранения и извлечения данных из сложных приборов, моделирования HPC и лабораторий визуализации.

Ресурсы по визуализации

Для поддержки исследований, проводимых на наших высокопроизводительных вычислительных системах, TACC предоставляет расширенные ресурсы визуализации и консультационные услуги, доступные как лично, так и удаленно. Эти ресурсы охватывают как аппаратное, так и программное обеспечение, и включают в себя: Stallion, один из самых высоких в мире дисплеев с плиткой; Longhorn, крупнейший кластер удаленной интерактивной визуализации с аппаратным ускорением; и портал визуализации Longhorn, интернет-шлюз к кластеру Longhorn и простой в использовании интерфейс для научной визуализации.

Лаборатория визуализации

Лаборатория визуализации TACC, расположенная в POB 2.404a, открыта для всех преподавателей UT, студентов и сотрудников, а также для пользователей UT Systems. Vislab включает в себя «Жеребец», один из плиточных дисплеев с самым высоким разрешением в мире (см. Ниже); «Лассо», 12,4-мегапиксельный мультисенсорный дисплей для совместной работы; Bronco, оверхед-проектор Sony 4D SRX-S105 с плоским экраном, который дает пользователям дисплей с разрешением 20 футов x 11 футов и разрешением 4096 x 2160 пикселей, который управляется высокопроизводительной рабочей станцией Dell и идеально подходит для сверхвысокой производительности. визуализации и презентации высокого разрешения; «Подковы», четыре системы Dell Precision высшего класса, оснащенные многоядерными процессорами Intel и графической технологией NVIDIA для использования в производстве графики, визуализации и редактировании видео; «Седло», конференц-зал и небольшой конференц-зал, оборудованный коммерческими аудио и видео возможностями для проведения видеоконференций в формате Full HD; «Mustang» и «Silver» - это дисплеи для стереоскопической визуализации, оснащенные новейшими технологиями, использующими режимы вывода стереозвука Samsung 240 Гц в сочетании с 55-дюймовым светодиодным дисплеем, и могут использоваться для визуализации глубины в результате параллакса, создаваемого активными и пассивные стереоскопические технологии; сетевые технологии Mellanox FDR InfiniBand для соединения этих систем на более высоких скоростях. Vislab также служит исследовательским центром для взаимодействия человека с компьютером, разработки программного обеспечения для мозаичных дисплеев и консультирования по визуализации.

Жеребец

Stallion - это система с мозаичным дисплеем на 328 мегапикселей, разрешение которой более чем в 150 раз превышает разрешение стандартного HD-дисплея, и это один из самых высоких в мире дисплеев по количеству пикселей. Кластер предоставляет пользователям возможность отображать визуализации с высоким разрешением на большом мозаичном дисплее 16x5 30-дюймовых мониторов Dell. Эта конфигурация позволяет исследовать визуализации с чрезвычайно высоким уровнем детализации и качества по сравнению с типичным проектором с умеренным количеством пикселей. Кластер предоставляет пользователям доступ к более чем 82 ГБ графической памяти и 240 ядрам обработки. Эта конфигурация позволяет обрабатывать массивы данных большого масштаба и интерактивную визуализацию существенных геометрических фигур. Доступна общая файловая система объемом 36 ТБ, позволяющая хранить наборы данных тера-размера.

Рекомендации

внешняя ссылка

Координаты : 30.390205 ° N 97.725652 ° W 30 ° 23′25 ″ с.ш., 97 ° 43′32 ″ з.д.  /   / 30.390205; -97,725652