Анализ упоминаемости в сми ромир и конкурентов Обзор сми за 09 марта 2010 год

Вид материалаАнализ

Содержание


Общественно-политические СМИ
GfK, за последние 10 лет число подключенных к Сети семей возросло в 30 раз. Согласно данным аналитиков GfK
Подобный материал:
1   ...   16   17   18   19   20   21   22   23   24

Общественно-политические СМИ


08.03.2010
"Все СМИ Новостная система VSESMI.RU"
За год число граждан Россиии с быстрым интернетом возросло на треть

В 2009 году число рунетчиков с широкополосным доступом в Сеть возросло с 8,3 до 11,3 млн. человек, т.е. на 36 процентов, пишут «Ведомости» со ссылкой на данные компании ACM-Consulting.

Объем российского широкополосного рынка оценивается в 2,7 миллиарда $. По данному показателю рынок вырос на 60 процентов.

Более половины всех широкополосных абонентов приходится на «Связьинвест» и его дочерние компании. Помимо того, «Центртелеком», «дочка» холдинговой компании, стал в 2009 году лидером по приросту числа абонентов, подключив 430 тысяч клиентов. Вся его абонентская база составляет 1,14 млн. клиентов. Второе место занимает — работающий в Поволжье и на Урале «ЭР-телеком», который набрал 380 тысяч абонентов. Всего он подключил 958 тысяч пользователей.

Ожидается, что в 2010 году рынок будет расти за счет регионов, т.к. в Москве к Сети подключено 3 четверти домохозяйств. Крупные игроки рынка, такие как, к примеру, «Комстар», начнут работу в менее крупных, чем раньше, городах.

Согласно мартовскому исследованию компании GfK, за последние 10 лет число подключенных к Сети семей возросло в 30 раз. Согласно данным аналитиков GfK, кризисный 2009 год мало повлиял на применение интернетом. 72 процента опрошенных рунетчиков не меняли провайдера или тариф.


07.03.2010
NovoNews (novonews.lv) (Рига)
Латвийцы оценили работу Ушакова и Шлесерса

Фото Д.Сульжица, NovoNews Справа Шлесерс, слева Ушаков.

Опрос на тему туризма с политическим подтекстом провели компания исследований Gfk и сайт 7guru.lv. Они, во-первых, спросили жителей Латвии о том, хотели бы они избрать в качестве конечной цели туризма город Ригу, если бы являлись жителями другой страны. 60% респондентов на этот гипотетический вопрос ответили "возможно", 17% сказали твердое "да", а 8% - "нет".

Во-вторых, исследование показало, что 30% респондентов в нынешней экономической ситуации выступают против инициативы Рижской думы потратить 2 млн. латов на рекламирование столицы Латвии за рубежом в рамках кампании Live Riga.

При этом 22% опрошенных проект мэрии поддерживают, а 20% он безразличен. Более трети участников опроса ничего о таком проекте не слышали, а 17% из тех, кто о ней слышал, считают, что зимняя кампания Live Riga способствовала увеличению числа туристов в Риге. В свою очередь, 12% уверены в обратном. У 37% общества мнение по этому вопросу еще не сформировалось.

В целом жители Латвии оценивают работу Рижской думы нынешнего созыва (во главе с партиями "Центр согласия" и ЛПП/LC) неоднозначно: 34% респондентов не имеют мнения по этому вопросу, 32% считают, что эта дума работает так же, как предыдущая, а 21% опрошенных полагают, что под руководством Нила Ушакова и Айнара Шлесерса самоуправление работает лучше, чем под управлением Яниса Биркса и Ко. По данным опроса нынешнее думское руководство чаще поддерживают жители в возрасте от 35 до 54 лет (29%), мужчины (27%) и "нелатыши" (41%).

Как уже сообщал портал NovoNews, с конца 2009 года количество посетителей Риги стабильно возросло. По данным авиакомпании airBaltic, тому, что столица Латвии опередила по привлечению туристов города соседних стран, способствовали не только более низкие расценки в гостиницах и ресторанах, но и маркетинговая кампания бренда Live Riga. Например, в декабре Ригу посетило вдвое больше москвичей, чем Хельсинки, и в шесть раз больше, чем Таллинн.

В конце 2009 года airBaltic отметила увеличение пассажиропотока изо всех стран, где Рига рекламировалась в рамках кампании Live Riga. В декабре 2009 года наибольший прирост количества туристов по сравнению с тем же периодом прошлого года отмечен из Финляндии (+139 %), России (67 %), Литвы (48 %), Эстонии (30 %), Норвегии (28 %), Германии (11 %) и Швеции (11 %).


07.03.2010
Telegraf.lv (Рига)
Латвийцы не знают, что такое Live R ga

Более трети жителей Латвии вообще не знают, что такое кампания Live R ga. В свою очередь, 17% из тех, кто о ней слышал, считают, что зимняя кампания была не успешной и не способствовала привлечению туристов.

В свою очередь, 12% респондентов, наоборот, полагают, что реклама получилась и туристы приехали. У 37% опрошенных не сложилось четкого мнения относительно проводимой кампании.

Исследование показало, что 30% жителей не поддерживают инициативу Рижской думы выделить 2 млн латов на рекламирование столицы Латвии заграницей, учитывая нынешнюю экономическую ситуацию. 21% опрошенных равнодушны к этому, а 22% - поддерживают инициативу чиновников.

C огласно результатам исследования, только 60% возможно выбрали бы в качестве туристического направления Ригу, если бы были иностранцами. В свою очередь еще 17% ответили, что обязательно посетили бы стлицу Латвии, а 8% - не сделали бы этого.

Исследование было проведено ворталом www.7guru.lv и компанией GfK.


06.03.2010
"Tom's Hardware Guide" /Русское издание
Графика AMD, Intel и Nvidia: взгляд в будущее

Дмитрий Чеканов, 6 марта 2010

Введение

Я работаю обозревателем в индустрии 3D-графики уже больше десяти лет. Я всё ещё помню, как в компьютерном отделе меня поразила реклама Western Digital Paradise Tasmania 3D, да и графический процессор Yamaha. И мои первые работы в онлайн-журналистике как раз были посвящены 3D-играм.

Нажмите на картинку для увеличения.

Мы работаем на этом рынке с самого начала. Нам посчастливилось наблюдать рассвет и закат бесчисленных графических производителей, а именно S3, 3DLabs, Rendition, 3dfx, а также и производителей видеокарт, таких как Orchid, STB, Hercules, Diamond и Canopus. Предыдущее десятилетие было захватывающим, пусть немного диким и запутанным, но новое десятилетие должно оказаться ещё более интересным, причём не только технологиями, которые получат потребители, но и грядущей "гонкой вооружений" в сфере визуальных вычислений.

Нажмите на картинку для увеличения.

Сегодня уже немало было сказано по поводу будущей "смерти" выделенных GPU. Если вы посмотрите на историю дискретных апгрейдов потребительских технологий, то там действительно можно обнаружить точку уменьшения доходов и дальнейшей интеграции. Конечно, GPU рано или поздно исчезнут, но это вряд ли случится в ближайшее десятилетие.

Интеграция компьютерной технологии происходит, только когда процесс эволюции проходит точку уменьшения доходов, связанную с достижением пределов по качеству и производительности. Мы наблюдаем подобное событие со звуковыми картами, обработкой видео и даже мониторами.

В нашей статье мы обсудим вероятное будущее 3D-графики. Не находятся ли сегодня GPU на смертном одре? Будут ли AMD, Intel и NVIDIA оставаться весомыми игроками? Конечно, любая статья субъективна, но в данном случае она базируется на десятилетнем опыте.

Уроки истории: "смерть" звуковой карты

Нажмите на картинку для увеличения.

Вы можете отследить эволюцию звуковых карт, начиная от спикера ПК до дискретных моделей Tandy 1000, Disney Sound Source, Sound Blaster, Sound Blaster Pro, Pro Audio Spectrum 16, Gravis Ultrasound, Monster Sound PCI, целой эпохой Aureal/Sensaura/EAX и, наконец, сегодняшней ситуацией, когда большинство геймеров вполне довольствуются встроенным на материнскую плату звуковым контроллером.

Нажмите на картинку для увеличения.

Давным давно в распоряжении пользователя ПК был динамик, способный выводить простые звуковые сигналы разной тональности в играх (за исключением редких программ синтеза речи, расчёт которой выполнялся на CPU). Звуковая карта Sound Blaster обеспечила поддержку 8-битного 22-кГц монофонического звука. Затем появилась модель SB Pro со стереозвуком, а также и PAS16 со звуком уровня CD-качества (и весьма мощным усилителем) для массового рынка. Наконец, звуковая карта Gravis Ultrasound сделала доступным wavetable-синтез MIDI для широких масс пользователей. С каждым поколением продуктов новые технологии обеспечивали заметные и ощутимые преимущества потребителям. Звук действительно становился лучше. Но на закате эпохи DOS мы перестали наблюдать драматические улучшения качества, к которым привыкли за последние годы. Внедрение 3D и объёмного звука в сферу ПК дало непродолжительную, но весьма интенсивную битву Aureal, Sensaura и Creative Labs/EAX за доминирование, но для современных CPU производительность уже не является серьёзной проблемой.

Нажмите на картинку для увеличения.

Процент общей вычислительной мощности CPU, которая требуется для обработки звука, сегодня мизерный. А что касается качества, то большинство звуковых карт дают достаточно качественный звук. По-прежнему существует нишевой рынок для профессиональных ASIO-совместимых звуковых карт, но факты говорят сами за себя. Продажи звуковых карт Creative Labs в 2008 году оказались на 12% ниже, чем в 2007, а в 2007 – на 22% ниже, чем в 2006. В свою очередь, продажи в 2006 году были на 12% ниже, чем в 2005. В 2005 – на 18% ниже, чем в 2004, а в 2004 – на 14% ниже, чем в 2003. Наконец, продажи в 2003 году были на 34% ниже, чем в 2002. А в 2002 году продажи снизились на 30% по сравнению с 2001 годом, в котором продажи оказались ниже на 2%, чем в 2000. Достаточно просто посчитать: за семь лет с 2000 до 2007 рынок звуковых карт сжался на 80%.

Аудиофилы могут поспорить, доказывая небольшие нюансы звучания одного ЦАП по сравнению с другим по музыкальности или уровню шума, но рост популярности музыкальных серверов с жёсткими дисками явно указывает на то, что звуковые контроллеры ПК имеют потенциал по обеспечению весьма высокого качества аудио. Да и большинство игр и потребительских приложений сегодня уже звучат хорошо на современных звуковых картах, даже если программное обеспечение не написано с учётом использования звука высокого разрешения.

Вряд ли разработчики игр будут тратить дополнительные деньги на правильную запись, сведение, мастеринг и вывод звуковой дорожки в разрешении 24 бит/96 кГц. На самом деле сегодня даже многие полнометражные фильмы сводят в режиме 24/48. Для разработчика программного обеспечения лучше потратить эти деньги на добавление новых уровней или улучшения визуальной составляющей игры, а доступную вычислительную мощность – на графику или физику.

Геймерам, которые желают получить более качественный звук от своего компьютера, лучше потратить дополнительные $100 на колонки, чем на звуковую карту. Дело в том, что технология колонок развивается относительно медленно по сравнению с другими технологиями. Мои колонки Magnepan MG-III с парой усилителей Adcom GFA-555 II по-прежнему звучат лучше, чем большинство потребительской акустики. Что же касается звука на ПК, то мои рекомендации не изменились с 1999 года: покупайте систему Klipsch ProMedia. Эти колонки в паре с интегрированной на материнскую плату звуковой картой дадут очень приятный звук по соотношению цена/качество как при прослушивании музыки, так и в играх. Если же вам нужно что-то лучшее, то следует отказаться от рынка компьютерной акустики, обратив внимание на отдельный ресивер и колонки для домашнего кинотеатра/hi-fi.

Подведём промежуточный итог. Рынок звуковых карт "умер" после того, как:

технология достигла точки уменьшения отдачи как для потребителей, так и для создателей контента;

продвижения в технологии изготовления полупроводников обеспечили производительность/качество, соответствующее указанной точке, по мизерной накладной цене.

Но не достигла ли 3D-графика такой же точки уменьшения отдачи?

Состояние 3D-графики

Если вы следите за развитием видеокарт для ПК, то наверняка знаете, что nVidia повторно использует ядро G92 в нескольких поколениях продуктов. Оно было представлено в 2007 году вместе с видеокартой GeForce 8800 GT, но затем ядро G92 стало вновь использоваться в моделях GeForce 9600, 9800, GTS 150 и GTS 250. Nvidia удалось выполнять такой трюк последние два раза с постепенным снижением цен, поскольку при настройках среднего качества видеокарты на G92 вполне способны справиться с играми, подобными Far Cry 2, с частотой 30 fps на низких разрешениях. С другой стороны, видеокарта AMD Radeon HD 5970 даже слишком быстрая, вы сможете играть с ней на 30" мониторе, выставив все настройки в самое высокое качество - и при этом частота кадров во многих играх будет превышать уровень 100 fps. А теперь давайте взглянем на технологию AMD Eyefinity с другой стороны: производительность видеокарт AMD настолько высока, что разработчикам пришлось придумывать, куда её использовать – они смогли без особых проблем удвоить или даже утроить число обрабатываемых пикселей.

Этот сценарий ещё несколько лет назад был невозможен. Когда пользователи приобретали флагманские продукты, ту же GeForce 6800, то получали уровень 60 fps в играх, подобных Doom 3, с самым высоким качеством Ultra High Quality. Тогда просто никто не думал о безумных разрешениях и нескольких мониторах.

Говоря простыми словами, разработчики программного обеспечения не поспевают за темпами развития "железа". Разработчикам "железа" приходится выпускать всё более быстрые продукты, чтобы просто не потерять бизнес, а разработчикам игр нужно продавать всё больше и больше игр. Разработка игры, которая будет работать на HD 5970 со скоростью всего 30 fps, потребует безумного бюджета на разработку, чтобы существенно усилить визуальную составляющую игры, но при этом потенциальная аудитория будет очень небольшой.

Поэтому самую большую угрозу для индустрии "железа" несёт индустрия программного обеспечения. Разработчики программного обеспечения должны продолжать разрабатывать продукты, которые могут выигрывать от последнего новейшего "железа". Их игры должны быть достаточно увлекательными и привлекательными, чтобы пользователи вкладывались в самое мощное графическое "железо".

Поспевают ли разработчики игр?

И сейчас мы начнём долгий разговор в следующей канве: рынок видеоигр достаточно крупный и достаточно прибыльный, чтобы поддержать разработку новых игр с бюджетами уровня Pixar ($150-$175 млн.) Если бы всё было так просто...

Чтобы не отставать от "железа", разработчикам игр нужны огромные бюджеты на разработку. Современны культовые игры AAAA, такие как Call of Duty: Modern Warfare 2, Halo 3 или Gran Turismo 5, имеют существенные бюджеты на разработку около $50-$60 миллионов. У Grand Theft Auto 4, по различной информации, бюджет разработки составил $100 миллионов. С учётом затрат на маркетинг, бюджет COD:MW2 был объявлен на уровне $200 миллионов!

Нажмите на картинку для увеличения.

Чуть менее культовые игры AAA, заложившие основу для франшизы, такие как Bioshock или Mirror's Edge, имеют бюджет от $20 до $30 млн. Эти игры можно рассматривать как основу для будущих продолжений, и это видно по бюджету. Для 2K Games подобные инвестиции были замечательными, но для EA инвестиции дали критически воспринимаемую игру с прекрасным визуальным дизайном и концепцией, но ставшую финансовым разочарованием (если вы ещё не играли в Mirror's Edge, то можете купить её сегодня по сниженным ценам).

Нажмите на картинку для увеличения.

Исторически бюджеты на разработку программного обеспечения увеличивались на порядок с выходом приставок нового поколения. В эпоху Super Nintendo/Genesis крупный бюджет для игры составлял $300 тысяч. В эпоху Gamecube/PS2 бюджет на хитовые игры вырос до $10 млн., а такие культовые игры, как Final Fantasy, получили бюджет $40 млн. Если тенденция продолжится, то мы должны увидеть бюджет $600 млн. у игры Gran Turismo 7 для PlayStation 4, $6 млрд. у игры Gran Turismo 9 для PlayStation 5 и $60 млрд. у Gran Turismo X. Вполне понятно, что эта тенденция не может продолжаться вечно.

Нажмите на картинку для увеличения.

Экспоненциальный рост бюджетов на разработку ПО за последние два десятилетия действительно отражает увеличение производительности "железа", но он также отражает и увеличение размера рынка и соответствующее увеличение потенциальной прибыли. Финансирование игры заключается не просто в выделении бюджета "чтобы игра круто выглядела" – нужно учесть все риски и возможные доходы, причём всё это касается всего ассортимента игр. Для каждой игры Guitar Hero или Madden NFL существует своя Mirror’s Edge или Duke Nukem Forever. Сиквелы, которые обозреватели часто критикуют за "то же самое, что и раньше", на самом деле пополняют бюджет для более амбициозных и креативных игр.

Процесс разработки и продажи игры очень напоминает производство блокбастеров в Голливуде. Хотя игры продаются на международном рынке за $50-60 за коробку, а билеты – за $10, глава семьи может купить одну игру, которой будут наслаждаться все родственники в квартире, а в кинотеатре билет требуется купить каждому. Как правило, успешные голливудские фильмы с большим количеством спецэффектов и бюджетом $150-175 миллионов собирают в кинотеатрах по всему миру сумму в 4-5 раз превышающую их бюджет. Но это должен быть такой хит, как "Трансформеры/Transformers", "Казино Рояль/Casino Royale" или "Пираты Карибского моря/Pirates of the Caribbean". Успешные низкобюджетные фильмы с хорошим сюжетом могут давать совершенно разную отдачу, начиная с 3x "отбивки" у "Отступников/The Departed", 6x для "500 дней лета/500 Days of Summer", 10x для "Сумерки/Twilight" и 25x для "Миллионера из трущоб/Slumdog Millionaire". Фильмы, такие как "Дитя человеческое/Children of Men", могут заработать на продаже билетов даже меньше своего бюджета (дефицит 10%).

Фильм

Предполагаемый бюджет

Мировая продажа билетов

Трансформеры

Transformers

$150 млн.

$701 млн.

Тёмный рыцарь

Dark Knight

$185 млн.

$1 млрд.

Рататуй

Ratatouille

$150 млн.

$616 млн.

Казино Рояль

Casino Royale

$150 млн.

$588 млн.

Пираты Карибского моря: проклятие Чёрной жемчужины

Pirates of the Caribbean: Curse of the Black Pearl

$140 млн.

$653 млн.

Пираты Карибского моря: сундук мертвеца

Pirates of the Caribbean: Dead Man’s Chest

$225 млн.

$1,06 млрд.

Пираты Карибского моря: на краю Земли

Pirates of the Caribbean: At World’s End

$300 млн.

$958 млн.

Железный человек

Iron Man

$140 млн.

$572 млн.

Звёздный путь

Star Trek (2009)

$150 млн.

$383 млн.

Отступники

The Departed

$90 млн.

$289 млн.

500 дней лета

(500) Days of Summer

$7,5 млн.

$55,3 млн.

Сумерки

Twilight

$37 млн.

$351 млн.

Миллионер из трущоб

Slumdog Millionaire

$15 млн.

$362 млн.

Дитя человеческое

Children of Men

$76 млн.

$68,3 млн.

Источник: IMDbPro.

На самом деле эти числа не говорят о реальных доходах компании, поскольку здесь не учитываются продажи дисков DVD/Blu-Ray, продажа прав на вещание и затраты на маркетинг, но всё равно мы видим, что на риск инвесторы идут совершенно продуманно. Перед тем, как вложить сотни миллионов долларов задолго до продажи первого билета, финансист должен удостовериться, что его стратегия принесёт прибыль в долгосрочной перспективе. Тот факт, что несколько фильмов принесли прокатом в кинотеатрах больше миллиарда долларов, отнюдь не означает, что мы в ближайшем будущем увидим бюджеты уровня $500 млн. Конечно, инвесторы намного спокойнее будут вкладывать десятки миллионов долларов в фильм, зная, что потери будут меньше в худшем случае, а прибыль – больше в лучшем случае.

Инвесторы вкладывают средства в игры схожим образом. Если вы посмотрите на успешную крупнобюджетную игру, такую как Bioshock, GTA4, Halo 3 или Final Fantasy XII, то продажи оказываются в 4-6 выше бюджета (без учёта затрат на маркетинг). Опять же, оценка от 4X до 6X не полностью соответствует тому, что получит инвестор, но зато отражает тот факт, что успешные крупнобюджетные игры (бюджет от $20 до $100 млн.) в итоге продаются схожим количеством копий, которое пропорционально вложению. Инвесторы игры, похоже, идут на такие же риски, что и в киноиндустрии.

Знатоки индустрии часто утверждают, что индустрия видеоигр по денежному потоку аналогична киноиндустрии. Но на самом деле это не так. В 2008 году Media Control GfK International сообщила о том, что глобальные продажи видеоигр достигли $32 млрд. – больше, чем $29,8 млрд. (глобальная продажа дисков DVD/Blu-Ray).

Но суть в том, что продажа билетов в кинотеатрах дала ещё $28,1 млрд. И мы даже не начали обсуждать права на вещание.

Более того, успех фильма в Голливуде более предсказуем, чем прибыль от видеоигр из-за нескольких упомянутых путей получения прибыли и лучшего знания инвесторами этого рынка. Так что хотя бюджеты на разработку видеоигр будут продолжать свой рост, сложно представить, что игры доберутся до такого же бюджета, что фильмы в Голливуде. Риски при разработке игры выше, поэтому для любого выбранного бюджета отдача должна быть тоже выше. За следующие десять лет можно ожидать, что самые хитовые игры AAAA получат бюджеты в области $175 млн., а амбициозные игры, которые привносят на рынок новую интеллектуальную собственность, получат бюджеты $60-$80 млн.

Конечно, бюджеты уровня Pixar дают потенциал получить визуальное качество уровня Pixar (а также персонажей и сюжет уровня Pixar). Учитывая, что фильмы Pixar по-прежнему требуют 5-6 часов на рендеринг одного кадра на крупных кластерах из суперкомпьютеров, ответ отрицательный: графика ещё не достигла точки уменьшения отдачи.

Это значит, что мы не достигли стабилизации "субъективного восприятия". Новые и всё более мощные GPU будут продолжать появляться на рынке по мере того, как будут создаваться программные продукты с более сложной графикой. Только когда мы достигнем данной стабилизации, продажи дискретных графических процессоров начнут снижаться. Кроме того, в отличие от мира звуковых карт, где эта стабилизация была достигнута при относительно небольшом количестве транзисторов, что позволило быстро интегрировать звуковые чипы на материнские платы, GPU по-прежнему упираются в ограничения технологии производства полупроводников, требуя при этом массивного охлаждения и потребляя серьёзное количество энергии. Поэтому вы можете изготовить CPU и GPU на одной физической упаковке, но вам придётся тщательно продумать охлаждение этого устройства, да и подать на него существенную энергию. Кроме того, графику можно рассматривать как движущую силу для разработок. GPU могут использоваться для расчёта сложной параллельной математики. Это ещё один рубеж, который хотят укрепить такие производители, как AMD, Intel и NVIDIA.

Мир программного обеспечения продолжает открывать новые возможности для AMD, Intel и NVIDIA, заставляя их прилагать немало усилий к исследованиям и разработке. Состояние графической индустрии сегодня можно оценить как очень сильное.

AMD в ближайшие десять лет

После впечатляющего старта линейки Radeon HD4000 компания AMD продолжила взятый темп с не менее впечатляющей линейкой HD5000. Одна из инноваций, которые были реализованы в стратегии дизайна GPU AMD – это концепция "маленького кристалла". Если nVidia обычно разрабатывает флагманский GPU, после чего пытается получить "бюджетные" версии, отключая вычислительные ядра, снижая тактовую частоту или урезая интерфейс памяти, то инженеры AMD выбрали стратегию "маленького кристалла", когда на данном технологическом процессе выпускается GPU среднего уровня, после чего для флагманского продукта два таких GPU объединяются в пару. Поэтому если nVidia предлагала самый высокопроизводительный GPU для данного поколения, именно AMD обеспечивала наилучшее соотношение цена/производительность.

Подход ATI (а сегодня и AMD) к дизайну GPU бы всегда сфокусирован на играх, и был весьма консервативным. Если nVidia попыталась представить поддержку 16/32-битных вычислений с плавающей запятой в своей линейке GeForce FX, хотя эта функция была слишком медленной для игр, ATI придерживалась шейдеров с фиксированной 24-битной точностью в семействе Radeon 9700. Мы получили те же самые проблемы с ядром NVIDIA GT200 (GTX260/275/280/285/295) и поддержкой вычислений IEEE-754 с двойной точностью. Эта функция была представлена только в видеокартах Radeon HD5800 (и отсутствовала в линейке HD5700). Амбиции nVidia были перенесены и на Fermi, которая архитектурно была нацелена на CUDA, а не на игры, и сегодня всё это привело к разочаровывающей задержке.

Важно понимать, что у AMD хорошее ощущение времени. Когда аппаратное и программное обеспечение достигали точки, в которой шейдеры FP32 уже требовались, эта функция становилась доступной в видеокартах AMD. Хотя nVidia была первой на рынке с вычислениями двойной точности, соответствующими IEEE-754, только сегодня эта функция становится важной, и линейка Radeon HD 5800 тоже её поддерживает. По большей части nVidia первой выпускает на рынок неигровые функции, которые не являются движущей силой продаж (подробнее об этом позже).

Взгляд в будущее

Дизайны AMD направлены в сторону Fusion. В Fusion AMD планирует интегрировать традиционную технологию GPU с технологией CPU. Это не только сможет снизить задержки, повысив вместе с тем вычислительную пропускную способность (рост производительности), но CPU/GPU могут совместно использовать многие ресурсы (снижает стоимость, тратится меньше пространства на кристалле). Точно так же наши CPU получили сопроцессоры для работы с плавающей запятой (FPU), которые являются интегрированными компонентами, оптимизированными для выполнения математических операций одинарной и двойной точности, округления и так далее. В будущем AMD представит кристаллы, на которых будут интегрированы GPU и CPU.

В начальной фазе AMD, скорее всего, будет интегрировать уже существующие ядра CPU с ядрами GPU. Процессоры Fusion будут масштабироваться путём изменения числа вычислительных блоков, как мы это видим сегодня на примере увеличения числа GPU Radeon. Затем интеграция будет наверняка более продуманной, без очевидной разницы между компонентами CPU и GPU на чипе. Скорее всего, мы получим CPU с интегрированным FPU и потоковыми ядрами, которые через драйвер будут работать как графический процессор. При использовании эффективных систем управления энергопотреблением мы получим весьма привлекательный уровень производительности на ватт. Можно будет создавать полноценные настольные окружения на интегрированном GPU, экономя при этом заряд аккумулятора, а при необходимости включать доступ к более скоростному дискретному GPU для приложений, способных от него выиграть.

nVidia попробовала реализовать такой подход с помощью технологии Hybrid SLI, но на рынке для энтузиастов она не сработала. Hybrid SLI (GeForce Boost) позволяет разделить 3D-нагрузку между интегрированным GPU и GPU на дискретной карте, но с флагманским GPU такой подход бесполезен. Задержки и дополнительная работа, требующаяся на разделение нагрузки, оказывали более существенное влияние, чем оказывался прирост производительности. У AMD с Fusion больше шансов на успех, поскольку у интегрированного в CPU компонента задержки меньше.

Если Fusion подразумевает интеграцию графической технологии на CPU, то Torrenza должна обеспечить прямое подключение к CPU через HyperTransport или похожий современный протокол с низкими задержками и высокой пропускной способностью.

В принципе, решения с прямой связью с CPU уже поставляются на нишевые рынки. Например, вы можете использовать устройство XtremeData XDI в стандартном сокете AMD Opteron. Оно состоит из двух FPGA-чипов Altera Stratix II, которые имеют прямой доступ к основному процессору Opteron и памяти. Возможно, подобные устройства и не дадут чистую производительность GFLOPS на уровне конфигурации с восемью CPU или GPGPU, но преимущество в реальных сценариях, интенсивных по вычислительной нагрузке (анализ финансовых рынков, шифрование данных или военные системы радаров), оказывается существенно выше как по чистой производительности, так и по производительности на ватт. Доступны и карты HTX со схожими чипами FPGA или сетевые multi-адаптеры 10 GigE с прямым подключением HyperTransport к CPU.

Перспективы AMD

Графическое подразделение AMD показало свои возможности конкурировать на верхнем сегменте рынка. Линейка Radeon HD 4000 обеспечила лучшее соотношение производительность/цена, чем линейка Nvidia GeForce GTX (GT200), а линейка Radeon HD 5000 остаётся непобедимым чемпионом DirectX 11.

Подразделение AMD CPU тоже показало свою возможность создавать высокопроизводительные многоядерные CPU, начиная с Athlon 64 X2 и заканчивая современными шестиядерными Opteron, ориентированными на серверы. Если посмотреть на последнее десятилетие, то AMD и ATI были либо лидерами по производительности, либо занимали второе место, весьма близкое к первому. Если посмотреть на ближайшие десять лет, то AMD входит в декаду как только технологическая компания, обладающая техническими ресурсами и солидной историей успеха в технологиях CPU и GPU. Когда AMD говорит о Fusion, вряд ли приходится сомневаться, что компания добьётся успеха. В целом, у нас большие ожидания по поводу AMD в ближайшие десять лет.

А как насчёт Intel?

Хотя Pentium 4 был один из наиболее хорошо продаваемых процессоров Intel, его архитектура NetBurst стала редким случаем, когда компания занимала второе место по технологиям. Intel потеряла внимание публики и рыночную долю, уступив превосходящим процессорам AMD Athlon. Впрочем, с объявлением Pentium M из дизайнерского центра Intel в Хайфе, а также с последующим выводом на рынок микро-архитектуры Core, Intel восстановила свои позиции в качестве технологического лидера CPU. Возможно, более впечатляет то, что сама архитектура Core была эволюционным ответвлением от архитектуры P6 "Pentium Pro", берущей своё начало ещё с 1995 года.

Нажмите на картинку для увеличения.

С точки зрения дизайна Intel не вкладывала все свои усилия в одну платформу. Intel - одна из немногих компаний, которая имеет в своём ассортименте две прибыльные и высокопроизводительные архитектуры CPU. Мы имеем в виду Itanium. После двух десятилетий работы и десятилетия коммерческой доступности, вложение в Itanium начинает окупаться для Intel. И компания начинает получать отдачу от своих инвестиций. Нас впечатляет, как центр дизайна Intel в Хайфе смог привнести архитектуру P6 в современный мир, но не менее впечатляет и то, что многие ведущие инженеры проекта P6 перешли в проект Itanium. К ним были добавлены инженеры из команды HP PA-RISC, поэтому проект Itanium получил фактически лучшие "мозги" в мире для успешной работы.

Нажмите на картинку для увеличения.

Нажмите на картинку для увеличения.

Даже до выхода Itanium Intel описала будущее x86 в презентации PowerPoint: более высокие тактовые частоты через новые техпроцессы, улучшения микро-архитектуры, улучшения архитектур CPU и платформы, а также более высокопроизводительные шины. Всё это подразумевает такие улучшения, как больший размер кэша, более высокие тактовые частоты шин с большей пропускной способностью и множество ядер - всё это мы видим в микро-архитектуре Nehalem, которая использует крупные общие кэши L3, интерфейс QPI и масштабируемое количество ядер. Компания наметила эти планы более 20 лет назад, при этом она знала, что явно достигнет предела. Нынешние CPU уже достигли большей удельной плотности тепловыделения, чем ядерный реактор, и поддержание эмпирического закона Мура будет уже более проблематичным после достижения толщины затвора в пять нанометров.

Архитектура Itanium принималась в 90-х годах как страховка от неизбежного будущего. В отличие от современных CPU, которые опираются на выделение существенной площади кристалла для элементов, не связанных непосредственно с вычислениями, чтобы оптимизировать производительность (например, диспетчеры для внеочередного выполнения команд, предсказатели ветвлений и так далее), архитектура Itanium строилась на той идее, что кремний должен выделяться только под рабочие вычислительные элементы. Вместо диспетчеризации команд в реальном времени, когда на принятие решения есть считанные такты CPU, подобная оптимизация должна проводиться заранее, в программном обеспечении на этапе компиляции и разработки, когда есть больше времени и можно использовать более сложные алгоритмы. Процессор должен уйти от традиционного дизайна команд на дизайн с командами очень большой длины (very long instruction word, VLIW), когда на процессор каждый такт отправляется большое количество инструкций для выполнения с максимальной производительностью. Идя, конечно, грандиозная. Но она и получила звучное название EPIC (Explicitly Parallel Instruction Computing - вычисления с заданным параллелизмом команд).

К сожалению, технология компиляторов, которая могла бы справиться с такой задачей, даже не существовала в момент, когда Intel и HP начали этот проект. Фактически, задача оказалась намного более сложной, чем предполагалось вначале, что привело к многим годам мизерных продаж и низкой производительности. Оригинальный Itanium, выпущенный на два года позже запланированной даты и после десяти лет разработки, больше напоминал концепт-решение. Itanium 2, который был выпущен на два года позже срока по уже изменённым планам Intel, перенёс этот проект в сторону прибыльности. Tukwila, "Itanium 3", запаздывает теперь уже на три года по первоначальным планам.

Впрочем, задержки отнюдь не означают, что всё так ужасно. У Intel более 1000 инженеров заняты работой над Itanium, и важно различать базовый дизайн VLIW Itanium и "слабые места" реализации этого дизайна в кремнии, которые привели к восприятию Itanium как крупного провала компании. Конечно, по производительности на доллар Itanium никогда не сможет победить процессоры Opteron или Xeon. Однако эти тесты не учитывают повышенной надёжности архитектуры, включая функцию core-level lockstep - своего рода эквивалент зеркалирования RAID для CPU. Благодаря функции lock step два процессорных ядра могут синхронизироваться по тактам, при этом они будут выполнять одни и те же вычисления, сверяя получившийся результат друг с другом или даже с другим сокетом CPU. Системы HP Integrity NonStop на основе Itanium дают время готовности 99,99999% по сравнению с 99,999% у линейки мейнфреймов IBM. В год эта разница составляет три секунды простоя против пяти минут. Если компания считает, что такой уровень надёжности так важен... Теперь вы понимаете, почему Itanium приносит прибыль. Причём ничто не мешает Intel представить low-end варианты Itanium без этих функций - разве что рынок сбыта пока отсутствует.

Мы не думаем, что Itanium будет отвоёвывать рынки, на которых сегодня работают Xeon или Opteron. Рынок Itanium вырастет в ближайшие десять лет по мере того, как всё больше больниц в мире будут переходить на электронные медицинские книжки/карты и цифровые системы обработки изображений, когда время готовности 99,99999% действительно важно. Когда выйдет следующая версия Itanium с поддержкой QPI, той же самой технологии связи, которая используется в современных CPU на основе Nehalem, станут возможны гетерогенные системы, включающие как традиционные CPU Xeon x86-64, так и процессоры Itanium IA-64.

А с ограничением закона Мура мы можем не столкнуться и за всю свою жизнь. Когда будут достигнуты затворы с толщиной 5 нм, то начнутся проблемы с туннельным эффектом электронов. Уменьшать структуры уже не получится, поэтому будут рассматриваться такие решения, как квантовые вычисления и стек из чипов. Архитектура VLIW/IA64 будет готова раньше квантовых вычислений, но стек из чипов является единственным способом эффективного охлаждения CPU с очень плотным расположением транзисторов.

Инвестиции в Itanium могут принести отдачу в будущих версиях Larrabee. Хотя параллелизм на уровне потоков Larrabee отличается от параллелизма VLIW на уровне инструкций Itanium, многие компиляторы и утилиты оптимизации можно перенести и на Larrabee. Фактически, собственный компилятор nVidia CUDA построен на компиляторе Open64 - утилите с открытым исходным кодом, изначально нацеленной на разработку программ для Itanium. В целом, у Intel сегодня завидное положение как производителя лучшей архитектуры для массового рынка с процессорами Core i3/i5/i7, а также лучшей архитектуры для мейнфреймов с Itanium.

Графика Intel в ближайшие десять лет

Поскольку о вычислениях на GPU стали говорить всё больше и больше, Intel решила начать разработку Larrabee. Чип состоит из множества ядер P54C, при этом он готов стать как надёжной платформой для научных вычислений, так и высокопроизводительным игровым продуктом уровня энтузиастов. Впрочем, отмена Larrabee в качестве потребительского продукта продемонстрировала трудности в разработке флагманского GPU.

Larrabee всё равно выйдет на рынок как продукт для научных вычислений, где сообщество разработчиков само отвечает за создание и оптимизацию кода. Это подразумевает, что проблемы, с которыми столкнулась Intel, кроются в разработке оптимизированного графического драйвера и компилятора шейдеров, а также в низком отношении производительность/цена по сравнению с предложениями AMD и Nvidia, а не являются фундаментальными проблемами, связанными с "железом".

Ранние успехи Nvidia были в немалой степени обусловлены прекрасной командой разработчиков драйверов под руководством Дуайта Диркса (Dwight Diercks). Под его началом команда разработала унифицированную архитектуру драйверов Unified Driver Architecture и определила методики дизайна и тестирования, ставшие основой CUDA. Конечно, драйверы nVidia не идеальны, но в целом они исторически воспринимаются весьма стабильными. У AMD тоже есть лидирующий разработчик драйверов - Бен Бар-Хаим (Ben Bar-Haim). После того, как в 2001 году его наняла ATI, он запустил программу Catalyst в 2002 году, которая и привела к совершенствованию драйверов ATI Radeon до конкурентоспособного уровня с Nvidia. Обе команды смогли переносить свой опыт и ноу-хау на новые поколения продуктов. У Intel подобного опыта нет. У компании нет такого же богатого опыта по разработке графических драйверов 3D, да и нет команды разработчиков ПО, которая бы эволюционировала вместе с совершенствованием "железа". Intel ещё предстоит доказать, что у неё есть технический потенциал, способный выдать высокопроизводительные графические драйверы для архитектур типа Larrabee. Как и в случае Itanium, велики шансы того, что "железо" намного опережает развитие сопутствующей экосистемы.

Впрочем, у Intel есть широкий набор ресурсов для успешного выполнения поставленной задачи, а также и солидный резерв по финансированию, чтобы позволить себе долговременное вложение. Компания достигла успеха с Itanium, и она добьётся такого же успеха с Larrabee (будем надеяться, что это произойдёт раньше, нежели позже). Впрочем, как в случае с Itanium, успех может измеряться прибыльными и узкими нишами, поэтому нет никакой гарантии, что компания добьётся успеха на рынке high-end игровой графики. Но будем всё же оставаться оптимистами.

Амбиции Nvidia

Амбиции убили Цезаря, и они почти убили Nvidia. Продукт Nvidia следующего поколения, а именно GF100, запаздывает. При этом до сих пор непонятно, какую дополнительную производительность он обеспечит по сравнению с линейкой AMD Radeon HD 5800. С архитектурой Fermi Nvidia поставила себе слишком амбициозные цели. Если бы не мощная платформа G92, компанию могла бы постичь судьба S3 или Matrox. Последний раз подобная ситуация наблюдалась с NV30, а в первый раз - с NV1; Nvidia почти что уходила из бизнеса.

Нажмите на картинку для увеличения.

С учётом всего сказанного, агрессивное проникновение вычислений с высокой точностью в продукты, начиная с 32-битных шейдеров у NV30 и теперь возможностей Fermi CUDA, должно окупить себя. И причина кроется в CUDA.

CUDA - маркетинговое название, которое охватывает всю аппаратную и программную технологию nVidia, позволяющую выполнять на GPU вычисления, не относящиеся к графике. Существует базовая аппаратная архитектура CUDA, а также и полная экосистема технологий, позволяющая разработчикам работать с GPU, используя C, Fortran, OpenCL и DirectCompute.

Если вы поговорите с энтузиастом новых технологий, то он наверняка скажет, что C для CUDA и Fortran для CUDA - это устаревшая бизнес-модель. Зачем разработчикам ПО нужно ограничивать себя поддержкой продуктовой линейки одного производителя, когда они могут использовать что-то подобное OpenCL или даже DirectCompute? В конце концов, мы давно не наблюдаем на рынке пропиетарных API для 3D-графики. Впрочем, если вы поговорите с разработчиками программного обеспечения, то их ответ будет другим.

Большинство приложений вычислений на GPU в данный момент построено на архитектуре CUDA, что является следствием многолетнего лидерства nVidia по доступным программным утилитам и инструментарию. Этот инструментарий уже поддерживает вычисления на GPU по очень широкому диапазону языков программирования, но nVidia также предлагает и собственные интегрированные окружения разработки, которые нужны для отладки приложений CUDA. Одной из знаменательных побед nVidia можно считать Mercury Playback Engine в Adobe CS5. Это весьма важно, поскольку следующая версия Adobe Creative Suite будет хорошо продаваться по причине того, что она впервые реализована на нативном 64-битном коде.

Если предыдущие версии программных продуктов Adobe использовали OpenGL для ускорения некоторых элементов, то Mercury Engine - технология на основе Nvidia CUDA для монтажа клипов в высоком разрешении в реальном времени, включая одновременную работу над пятью клипами RED 4K и поддержку сложных кодеков, таких как H.264 и AVCHD. Затем, когда необходимо выполнить кодирование в финальный формат, у nVidia есть эксклюзивная поддержка CUDA в Elemental Accelerator. На конфигурации с двумя ускорителями Quadro FX 3800 (эквивалент первого поколения GeForce GTX 260 со 192 ядрами, но с 256-битным интерфейсом памяти), кодирование источника AVCHD 1080p в формат H.264 720p может выполняться со скоростью 40 fps. В этой индустрии время - это деньги. Подумайте об операторе, снимающем свадьбу, которому нужно произвести монтаж в этот же день, чтобы показать церемонию на торжественном ужине. Это не та задача, которую можно оставить просчитываться на ночь. Чем быстрее выполняется кодирование, тем больше времени остаётся на монтаж.

Во время разработки CS5 пакет разработки AMD Stream SDK был ещё не проработан до уровня, который требуется Adobe. Хотя Adobe и хотела бы поддержать OpenCL из философского принципа нейтрального производителя ПО, но окружение разработчика пока недостаточно стабильное для этой задачи. Пока ещё не ясно, когда поддержка OpenCL появится в Adobe Creative Suite, а также случится ли это до того, как nVidia сможет отхватить iPod-подобную рыночную долю. Кроме того, хотя AMD предлагает бета-версию плагина для ускорения через Stream кодирования H.264, он работает только с центральным процессором AMD, и не будет работать с процессорами Intel, которые представляют собой большую долю рынка.

Нажмите на картинку для увеличения.

Что касается научных вычислений, то nVidia наслаждается своим доминированием благодаря существованию C для CUDA и Fortran для CUDA. Fortran - доминирующий язык программирования, который используется в научных вычислениях. Что немаловажно, хотя Nvidia подписала соглашение с PGI на разработку компилятора Fortran с ускорением на GPU почти через год после такого же действия со стороны AMD (июнь 2009 против ноября 2008), поддержка PGI для CUDA уже реализована в готовых решениях, а AMD по-прежнему отсутствует на рынке. У потребителей nVidia есть ещё одна опция в виде F2C-ACC, компилятора Fortran-to-CUDA, разработанного Национальной администрацией по океану и атмосфере США (National Oceanic and Atmospheric Administration, NOAA). Пользователи AMD могут использовать HMPP для Fortran, который также поддерживает CUDA.

Помимо более широкой поддержки в компиляторах, GPU nVidia обладают преимуществом в виде оптимизированных математических библиотек, которые находятся в разработке или уже доступны. Они включают GPU LAPACK, разработанную Джоном Хампри (John Humphrey) и его командой в EM Photonics, в партнёрстве с Эймсовским исследовательским центром НАСА (NASA Ames Research Center) (CULAtools). Команда предлагает пакет одинарной точности "CULA Basic" для всех желающих бесплатно, а также продаёт версии "Premium" и "Commercial" с большим набором функций, поддержкой двойной точности, да и предлагает возможность редистрибуции. Кроме того, Джек Донгара (Jack Dongarra), носящий титул Выдающегося профессора вычислительной техники (Distinguished Professor of Computer Science) в Университете Теннеси (University of Tennessee), Выдающегося научного работника (Distinguished Research Staff) в Окриджской национальной лаборатории (Oak Ridge National Laboratory), приглашённого профессора (Adjunct Professor) в Университете Райса (Rice University) и являющийся членом Сообщества Тьюринга (Turing Fellowship) в Университете Манчестера (University of Manchester), работает над реализацией этих математических библиотек на GPU/CPU со смешанной точностью, чтобы выжать ещё больше производительности. Коммерческое программное обеспечение, такое как Jacket for MATLAB, использует научные библиотеки nVidia для обеспечения высокопроизводительных вычислений.

Нажмите на картинку для увеличения.

Помните, как ATI выполняла рендеринг уменьшенной версии "Властелина колец/Lord of the Rings" в реальном времени на конференции SIGGRAPH 2002? Техническая демонстрация была просто великолепной. Но nVidia с технологией CUDA поднялась ещё на ступеньку вверх. Nvidia и WETA работали вместе над созданием специализированного программного обеспечения для фильма "Аватар/Avatar" под названием PantaRay. Эта утилита для выполнения предварительных вычислений работает в 25 раз быстрее, чем на сервере с CPU, а также в четыре раза более эффективно, чем традиционные движки рендеринга. Это позволило компании работать с миллиардами полигонов в кадре. И это не техническая демонстрация, а существенный вклад в работу над спецэффектами. Мы также увидим работу PantaRay в грядущем фильме Стивена Спилберга/Питера Джексона "Приключения Тинтина: Тайна единорога".

Итог таков, что у Nvidia сегодня наблюдается существенный отрыв по сравнению с Intel и AMD в сфере высокопроизводительных параллельных вычислений. Инвестиции, на которые пошла компания при создании полезных коммерческих утилит для GPGPU, уже окупили себя в виде эксклюзивной поддержки в Adobe Creative Suite 5 и широком распространении CUDA среди научных работников. Если компания продолжит начатое и будет агрессивно наращивать темпы с новой линейкой GF100, то есть все шансы её доминирования на рынке, как мы выдели в случае Apple iPod. Лично мне кажется, что nVidia уже завоевала прочные позиции в мире GPGPU. А третье место достанется AMD или Intel.

Nvidia как производитель x86

В каждом слухе обычно есть доля правды. Многие годы упорно ходили слухи о существовании подразделения Apple Marklar, которое было призвано портировать OS X с платформы PowerPC на x86. Хотя это казалось безумием в эпоху Intel Pentium 4, этот слух циркулировал постоянно. А потом оказалось, что это совсем и не слух, а реальность.

Нажмите на картинку для увеличения.

Вместе с тем нам отнюдь не кажется, что слухи насчёт выпуска nVidia процессора x86 не имеют под собой оснований. В истории это случалось не раз; компания была замечена в найме инженеров x86, да и получила лицензию на "другие технологии Transmeta" помимо LongRun, что заставляет крепко призадуматься.

Нет, у нас нет инсайдерской информации, но мы можем предположить, в каких двух областях вложения в x86 оправдают себя. Но сначала скажем, где nVidia конкурировать не имеет смысла - это сфера high-end CPU. Хотя AMD и Intel сегодня работают над интеграцией CPU и GPU на один кристалл, ни одна компания не сможет дать производительность флагманских видеокарт на одном кристалле. Дело в том, что увеличение размера кристалла из-за интеграции high-end GPU и CPU приведёт к несоразмерному росту расходов на производство, да и справиться с тепловыделением такого большого и горячего чипа будет очень сложно (посмотрите на трудности, которые возникают у Nvidia с охлаждением GF100 - и это только GPU).

Первый возможный шаг nVidia кроется в продолжении разработки CPU Transmeta Crusoe. Хотя процессор Crusoe так и не стал коммерческих успешным, на уровне производительности на ватт этот CPU был весьма конкурентоспособен даже по сравнению с нынешним Intel Atom. Более новая версия архитектуры VLIW у Crusoe, дополненная улучшениями в технологии производства и в алгоритмах морфинга кода, могут дать нам конкурентоспособное маломощное устройство. Если добавить к этому интегрированный GPU, то Nvidia получит продукт, который будет конкурировать со встроенными решениями AMD Fusion и. То есть перед нами может оказаться настольная версия Tegra.

Второй возможный шаг, который кажется нам более вероятным, в том, что Nvidia добавит простой CPU в будущие версии Tesla или Quadro. Сегодня одно из неэффективных решений GPGPU кроется в передаче данных "туда-обратно" между видеокартой и остальной системой. Установив универсальный CPU на самую видеокарту, "бытовые задачи" будут решаться самим GPU с локальной графической памятью, что улучшит производительность. Центральный процессор может быть посредником для лучшего управления асинхронными потоками данных. Этот CPU может даже не работать с кодом x86; вполне может быть реализована технология морфинга кода инструкций Nvidia PTX или другая эффективная комбинация, которая стоит вложенных усилий.

Аппаратное ускорение REYES?

Помните, что в нашей статье мы говорили о графике уровня Pixar? Фильмы Pixar создаются с помощью Renderman, программной реализации архитектуры REYES. В традиционной 3D-графике крупные треугольники сортируются, отрисовываются, затеняются, освещаются, а затем текстурируются. REYES разделяет кривые на микрополигоны, которые по размеру меньше одного пикселя, вместе со стохастической выборкой для предотвращения появления "лесенок". Это просто другой способ рендеринга. На SIGGRAPH 2009 как раз была продемонстрирована реализация рендеринга REYES на GPU - на видеокарте GTX 280. Хотя впереди предстоит ещё немалая работа, nVidia явно установила соответствующий курс, за который отвечает Билл Далли (Bill Dally) в должности вице-президента исследовательского подразделения. Мы бы сильно удивились, не получив в будущем реализацию REYES на графических процессорах nVidia.

Фактически, nVidia уже инвестировала в Голливуд. В конце 2009 года компания объявила iRay, аппаратно ускоренную технологию трассировки лучей для использования в пакете mental ray. Пакет mental ray использует движок глобального освещения и отслеживания лучей, который конкурирует с Renderman/REYES, при этом он использовался для таких художественных фильмов, как "Человек-паук: Враг в отражении/Spiderman 3", "Спиди-гонщик/Speed Racer" и "Послезавтра/The Day After Tomorrow". Да, и не будем забывать, что Mental Images - это тоже владение Nvidia.

Перспективы Nvidia

Корпоративная философия Nvidia и история рекордов вполне соответствует целям предложения аппаратно-ускоренной графики для потребителей, аппаратно-ускоренного рендеринга для Голливуда и высокопроизводительных вычислений на GPU для научного сообщества. Опыт в области разработки программного обеспечения и "железа", который для этого требуется, уже находится в стенах Nvidia. Если у AMD есть история рекордов с выпуском CPU и GPU, а у Intel - самые глубокие карманы, то Nvidia собрала портфолио из программных технологий. Не будем забывать, что именно программная поддержка обусловила феномен iPod. Программная поддержка вывела в лидеры iPhone. Будущее у Nvidia вполне цельное, но компании следует как-то более своевременно ставить планки новых технологий и достигать их.

Заключение

Следующие несколько лет окажутся весьма интересными с точки зрения вычислений. В забеге участвуют три компании AMD, Intel и Nvidia. Что более важно, у каждой компании есть свои неперекрывающиеся с другими области, в которых они достигли доминирования, а также и уникальные подходы. Следующее поколение продуктов будет не просто из категории "и я так могу", а явно станет реализацией новых идей и парадигм. Эти технологии откроют нам новые сферы развлечений, науки и творчества. Да и игры должны выглядеть более привлекательными. По крайней мере, будем на это надеяться.


05.03.2010