журналы подразделения новости подписка контакты home

архив
2001 год
2002 год
2003 год
2004 год
2005 год
2006 год
2007 год
2008 год
2009 год
2010 год
рубрики
ИТОГИ И ТЕНДЕНЦИИ

БАНКОВСКИЙ СЕРВИС

Международные банки

БАНКОВСКИЕ СТРАТЕГИИ

БАНКИ И ОБЩЕСТВО

БАНКОВСКИЙ МАРКЕТИНГ

БАНКОВСКИЙ МЕНЕДЖМЕНТ

Банковская деятельность

Новые рыночные страны

гостям
Агентство "Стандарт" предлагает вам подписаться на экномические журналы – лидеры в своей области.
























"Банковская практика за рубежом" – №4, 2006

Банковская деятельность

Наносекунда
для биржевой сделки

Сегодняшняя интенсивность операций на фондовых и валютных биржах требует применения суперкомпьютеров

По мнению международных экспертов, торговые стойки, за которыми идет торговля ценными бумагами на фондовых биржах, нуждаются в срочном техническом перевооружении и оснащении новейшими системами сверхскоростной обработки данных в интересах ускорения реализации различного рода биржевых сделок. Порой требования к этим системам настолько серьезны и жестки, что вступают в противоречие даже с законами физики.

Многопоточная

обработка

В мире торговли ценными бумагами с оборотом в сотни миллиардов долларов спокойствие и терпение уже давно перестали быть достоинствами или признаками хорошего тона. Сегодня прибыльная сделка может сорваться из-за запоздания на миллисекунду, а компания может остаться ни с чем из-за наличия у конкурентов более ценной информации. Поэтому они требуют от своих банковских информационно-технологических департаментов предоставлять им новейшие системы обработки данных и абсолютно невосприимчивы к слову «нет». Однако современная действительность говорит о том, что трейдерам сегодня приходится не столько приспосабливаться к реальным бизнес-потребностям, сколько действовать наперекор самим законам физики.

Банковские торговые стойки (bank trading desks) испытывают сегодня потребность в таких огромных объемах информации, причем, они должны обрабатывать их с такой фантастической быстротой, что в некоторых случаях порой кажется, что эти проблемы уже невозможно решить с помощью современной науки и техники. «Как бы мы ни пытались нарастить мощность наших процессоров и скорость обработки данных, этого все равно постоянно будет недостаточно. В прошлом году мне удалось увеличить мощность компьютера в нашей торговой системе в 40 раз. Мой босс был восхищен: «Это прекрасно, когда я могу ожидать в 400 раз?», – рассказывает Бэрри Чаилд, старший специалист по компьютерным системам в Royal Bank of Scotland.

В общем, речь идет теперь о том, что проблема высокоскоростной обработки данных в торговом зале (trading floor – место на фондовой бирже, где осуществляется покупка и продажа ценных бумаг) становится все более актуальной, поскольку даже лишняя наносекунда, потраченная на регистрацию удаленной торговой операции, может стоить банку серьезной сделки на бирже. Идея о том, что передовые инновационные технологии в компьютерной технике и электронике могут превратить торговлю ценными бумагами из любой точки мира в доходный бизнес, все чаще и каждый раз сильнее будоражит умы современных финансистов и банкиров.

Следует отметить, что в последнее время многие крупные информационно-технологические компании с пониманием относятся к данной проблеме. Они уже разработали ряд технологических новинок, которые в случае успешного внедрения, безусловно, должны усовершенствовать торговлю ценными бумагами. При этом, современные ученые порой вынуждены конфликтовать с уже давно устоявшимися представлениями, вследствие чего некоторые из их предположений кажутся настолько «продвинутыми», что иногда их очень сложно и воспринять, и понять.

Одним из самых распространенных методов наращивания мощности в процессе обработки данных стало применение многопроцессорной стратегии. Так, к примеру, «многопоточная обработка» (multi-threading) представляет собой процесс разделения компьютерной программы на множество самостоятельных задач, которые для ускорения операций по обработке должны выполняться одновременно. Реализуя их через различные компьютерные процессоры, в частности, – через многослойные микросхемы-чипы (multi-core chip), можно добиться существенного ускорения обработки данных, особенно когда множество процессоров объединены в одной системе.

Достойна внимания и разработанная компанией Intel новая «гиперпоточная» (hyper-threading, по аналогии с multi-threading) технология, эффективно организующая многопоточную обработку на одном чипе с обеспечением 30%-ного роста производительности во многих приложениях для серверов и рабочих станций.

Нyper-threading, по словам специалистов Intel, – это дизайн одновременного выполнения нескольких процессов, когда операционная система воспринимает один процессор как два логических, способных обрабатывать параллельные потоки инструкций, переключаясь с одного процесса на другой каждые несколько наносекунд. Хотя подобная модель не может реально удвоить производительность процессора (т.е. увеличить число проведенных операций с плавающей точкой в единицу времени), представители Intel утверждают, что гиперпоточная технология способна увеличить число пользователей или веб-трансакций, которые одновременно может обслуживать сервер.

Между тем, наращиванию мощности и быстродействия процессоров содействуют и технологические разработки, проводимые в других отраслях, например в секторе криптографии (шифрование) и телекоммуникаций. Здесь уже многие годы применяются микросхемы, которые могут быть запрограммированы для выполнения функций компьютерных программ. Впрочем, банки пока лишь приступают к их изучению. Такие чипы, известные как «вентильная матрица с эксплуатационным программированием» (field programmable gate array – FPGA), способны в тысячу раз ускорить обработку данных для ряда приложений. Однако банки только сегодня начинают применять такого рода технологии, которые, между прочим, находятся в коммерческом использовании уже более 15 лет. Все это лишний раз свидетельствует о том, что и в банковской отрасли, особенно в таком его сегменте как торговля ценными бумагами, вполне назрела необходимость существенного увеличения мощности и быстродействия процессов обработки данных.

Тем временем, в лабораториях компании Hewlett-Packard (HP) специалисты заняты проблемой применения в микросхемах большего количества – и, соответственно, меньших размеров – транзисторов, что тоже существенно увеличит их обрабатывающие мощности. В попытках создать уникальные микротранзисторы инженеры Hewlett-Packard сталкиваются с молекулярными барьерами и обнаруживают существенные недостатки и изъяны применения для этих целей кремния, являющегося на протяжении многих лет стандартным материалом для изготовления микросхем. Новое поколение чипов, резко повышающих мощность процессоров и скорость обработки ими данных, пока запускается в производство на лабораторном уровне, однако в планах компании – уже в самое ближайшее время наладить их массовый выпуск.

«В настоящее время мы бережно и с особой заботой относимся к изготовлению каждого подобного чипа в нашей лаборатории. Но я думаю, что близок тот день, когда эти микросхемы будут собираться в массовом порядке на промышленной основе для применения в будущих системах торговли ценными бумагами», – делает выводы Фил Кукес, один из сотрудников лаборатории Hewlett-Packard.

Наряду с этим, по мнению аналитиков, одной из самых впечатляющих и удивительных инноваций в секторе увеличения мощности процессоров следует считать использование так называемых «световых кристаллов» (photonic crystals) для трансформации данных с применением импульсов света. Так, в микросхеме, созданной профессором Техасского университета (University of Texas) Рэем Ченом, используется метод манипуляций вспышками для превращения света в эффективный инструмент трансформации и передачи информации. Принцип здесь почти такой же, как и в случае применения фонарика (или любого иного осветительного прибора) для манипуляций по кодам азбуки Морзе с целью передачи какой-либо информации на расстояние. В соответствии с разработкой профессора Чена световые импульсы различного уровня потенциально передаются значительно быстрее и без какого-либо нагрева, если сравнивать этот процесс с движением электронов вокруг металлического контура. Чипы Чена тоже пока изготовляются только в лабораторных условиях.

«Закон Мура»

В свое время один из основателей компании Intel Гордон Мур заявил, что, по его прогнозам, мощность процессоров будет удваиваться через каждые 18-24 месяца. Он вопреки многим скептическим комментариям действительно попал в точку: это явление даже вошло в историю как «Закон Мура». Профессор Гордон Мур в апреле прошлого года, в сороковую годовщину своего открытия, на специальной пресс-конференции заявил, что конструкциям микросхем через несколько поколений придется иметь дело уже с атомами, а это может стать «фундаментальным препятствием» на пути дальнейшего потенциального развития чипов. Но человеческая реакция на любой закон хорошо известна: всегда делается попытка найти способы обойти его, особенно если это сулит немалые прибыли.

Отрасль финансовых услуг не только с удовлетворением восприняла это удвоение мощности процессорных систем каждые два года, но и была отнюдь не против того, чтобы это происходило гораздо чаще. Инвестиционные банки и фонды для приобретения конкурентного преимущества перед другими трейдерами на рынке ценных бумаг предпринимают попытки создать сложные и «умные» компьютерные программы, которые в состоянии противодействовать любым попыткам других программ или людей «торговать против них». Мелкие трейдеры тоже не сидят, сложа руки, и, в свою очередь, напряженно работают над собственными приложениями повышения эффективности продаж ценных бумаг.

Безусловно, все эти системы – как крупных, так и мелких биржевых игроков – проходят предварительное тестирование и опробование перед непосредственным запуском в эксплуатацию. Конечно же, речь идет о серьезных новшествах, оснащенных мощными процессорными узлами, поскольку ввести, к примеру, пару тысяч алгоритмов для проведения анализа и оценки 100-летних исторических данных с помощью обычного настольного компьютера просто не представляется возможным.

Однако, как утверждает Робин Пейн, директор департамента технологий Лондонской фондовой биржи (London Stock Exchange), можно только представить, что происходит, когда все эти платформы выходят на рынок. С их вводом в действие и нарастанием конкуренции из-за огромного числа относительно небольших по размеру торговых сделок объемы обрабатывающих операций резко возрастают, причем, все это ложится тяжелым бременем на провайдеров данных, других участников рынка, как, впрочем, и на сами технологические службы биржи. «За последние пять лет средние ежегодные темпы роста количества ежесуточных торговых операций, проведенных через компьютеризированную биржевую торговую систему (computerised stock exchange trading system – SETS) составили 44%. Одним из главных факторов стало распространение алгоритмических торговых платформ», – говорит Робин Пейн.

Если продукт достаточно сложный и торговля им не может осуществляться через автоматическую систему, то огромный ресурс мощности компьютера используется только на само создание подобного продукта. Следует отметить, что сложные – или, как их еще часто называют, «экзотические» – продукты могут быть очень прибыльными, поэтому бэк-офисы банков день и ночь заняты вопросами опережения конкурентов и продвижения этих продуктов на рынок раньше остальных, еще до того, как вокруг торговли ими развернется острая конкурентная борьба.

Инфраструктура по обработке информации, необходимая для поддержки и продвижения таких продуктов, обычно включает два главных, с точки зрения ее оснащенности аппаратными средствами и компьютерной техникой, элемента: во-первых, это оборудование должно обеспечивать исключительно быструю и точную обработку данных; во-вторых, обмен информацией между игроками рынка тоже должен быть настолько оперативным, насколько это только возможно. Если мы вернемся к первой позиции, то «железо», обеспечивающее быструю и точную обработку данных, – это, по существу, процессорная платформа инвестиционного банка. Прямым результатом точной и надежной обработки данных, как подчеркивает Бэрри Чаилд, старший специалист по компьютерным системам Royal Bank of Scotland, может быть разработка успешных финансовых продуктов и стратегий. По словам директора информационного департамента одного из авторитетных американских инвестиционных банков, дифференциаторами этих обрабатывающих процессов выступают «масштаб, объем и результат – просто некоторые люди способны это делать лучше, чем другие».

Как бы там ни было, но в ближайшее время, как полагают многие эксперты, увеличение скорости обработки данных банковских систем торговли ценными бумагами, применяемых финансовыми институтами в торговых залах фондовых бирж, будет обеспечено, главным образом, за счет применения в процессорах вентильной матрицы с эксплуатационным программированием (FPGA).

Микросхемы с программируемой пользователем вентильной матрицей активно разрабатываются уже около двадцати лет, поскольку эта технология очень перспективна с точки зрения построения быстрых специализированных компьютеров, аппаратно настроенных под конкретную задачу. Правда, до сих пор никто еще не строил суперкомпьютеры исключительно на FPGA, поэтому, насколько эффективной окажется эта система, покажут лишь будущие опыты. Облегчения программирования задач на новом суперкомпьютере предполагается достичь за счет разработки универсального программного инструментария для FPGA-кластера.

Как только машина будет создана, разработчики с помощью нового инструментария попытаются перенести на нее несколько популярных суперкомпьютерных программ из уже освоенного набора. Если задачу удастся решить эффективно, это будет означать, что создана новая перспективная архитектура сверхскоростных суперкомпьютеров общего назначения, мощности которых по обработке данных будут превосходить действующие ныне машины в несколько тысяч раз.

Экспериментальный суперкомпьютер, способный самостоятельно изменять собственную конфигурацию, создается в Шотландии. В его основе уже не обычные микропроцессоры, а все те же FPGA. Суперкомпьютер на их базе будет существенно компактнее обычного, умещаясь в корпусе размером на четыре системных блока стандартного ПК. Конфигурацию устройств FPGA можно программно менять. Это дает возможность «настраивать» вычислительную систему для решения конкретной задачи (в отличие от микропроцессоров, которые представляют собой вычислительные устройства с жесткой, раз и навсегда заданной конфигурацией). Каждый чип FPGA включает блок программируемой логики, обеспечивающей изменение схемотехники устройства.

По мнению разработчиков из центра параллельных вычислений Эдинбургского Университета, суперкомпьютер на основе FPGA при одинаковых размерах будет мощнее и эффективнее обычного аналога. С появлением удобных средств для программирования реконфигурируемых суперкомпьютеров можно ожидать создания уже в ближайшем десятилетии компактных и оптимально потребляющих энергию суперкомпьютеров нового типа. Обычные микропроцессоры не только характеризуются невысокой эффективностью при решении определенных задач, они еще и все время усложняются, а это ведет к тому, что суперкомпьютеры на их основе потребляют много киловатт электроэнергии и требуют обеспечения эффективного охлаждения. «Всем, кто имеет дело с суперкомпьютерами, необходимо искать замену микропроцессорам», – предупреждает Марк Парсонс из Эдинбургского университета. Чипы FPGA после приведения их конфигурации в соответствие решаемой задаче при меньших размерах работают быстрее и расходуют меньше энергии.

По данным экспертов, ученые и инженеры из Эдинбургского центра параллельных вычислений работают над созданием компьютера производительностью в 1 терафлоп. Он будет включать 64 вычислительных модуля на основе FPGA. По меркам современных суперкомпьютеров, производительность которых достигает сотен терафлоп, это весьма посредственный показатель. Однако будущий суперкомпьютер на основе FPGA будет расходовать лишь 1% энергии, требуемой суперкомпьютеру стандартной архитектуры с той же производительностью. Кроме того, он намного компактнее обычного суперкомпьютера: если стандартному требуется отдельное помещение, то суперкомпьютер на основе FPGA уместится в корпусе размером в четыре системных блока ПК. Тем не менее, его создателям предстоит решить массу непростых задач. «Никто прежде не строил больших суперкомпьютеров на основе таких чипов, – подчеркивает Парсонс. – Создаваемый нами суперкомпьютер представляет собой совершенно уникальную систему». С ним соглашается Эллан Кэнтл, исполнительный директор компании Nallatech, разрабатывающей средства программирования для FPGA: «Речь идет о потрясающе эффективном вычислительном механизме. Но основная проблема – это разработка технологии, которая обеспечит их программирование».

Аппаратное обеспечение вычислительной системы на основе FPGA программировать сложнее, чем обычные компьютеры на основе микропроцессоров, поскольку необходимо не только обеспечить решение самой задачи, но и наилучшим образом организовать внутреннюю архитектуру системы. Решением данной задачи в настоящее время заняты шотландские инженеры. Как только машина из 64 вычислительных модулей нового типа начнет работать, ее конструкторы попытаются перевести ряд существующих программ для суперкомпьютеров на новую аппаратную базу.

«Если это удастся, мы получим продукт, пригодный для решения широкого круга задач», – резюмирует Парсонс. Создание суперкомпьютера с низким энергопотреблением, который можно подключать к обычной бытовой электрической сети, – одна из проблем, стоящих перед разработчиками. По мнению экспертов, ее решение откроет суперкомпьютерам путь на массовый рынок, что, в свою очередь, будет способствовать существенному расширению области их применения, в том числе и для использования в банковских системах торговли ценными бумагами на фондовых биржах.

Олег Зайцев,
по материалам The Banker

 
© агенство "Стандарт"