AMD и OTOY строят суперкомпьютер на 1петафлоп


AMD и OTOY заявили что строят вместе супер компьютер на 1петафлоп, на 1000 графических карточках, который планируют закончить к середине 2009г. Планируемая мощность супер компьютера который хотят построить в итоге (а не 1ая часть) должна составить 10 петафлоп.

OTOY собирается делать компьютерные игры и социальную сеть под названием LivePlace концепции Second Life, но сверх реалистичности которая будет просчитываться на платформе облачных вычислений.

Более подробно о технологиях OTOY – здесь

Странно что Second Life так и не стремилась фактически создать нечто подобное, хотя по факту они и заявляли это в своей миссии.

Самое интересное то, что OTOY хочет построить 3D мир сверх реалистичности, на концепции тонкого клиента используя распределённые и облачные вычисления на своих мощностях.

То есть рендеринг изображения будет проходить не на компьютерах клиентов (Игроков\пользователей соц.сети), а на вычислительном облаке OTOY. Расположенные в разных местах супер-дата центры (каждый из десяти планируется мощностью по 1петафлоп) будут просчитывать сцены кинематографического качества и передавать данные на слабый компьютер или даже мобильный телефон

Немного технических деталей, от владельца проекта, одного из основателей MySpace:

  1. We sore voxel data in several ways, including geometry maps (see our Siggraph or Iceland presentations, where we show this method applied to the Ligthstage 5 structured light data, courtesy Andrew Jones ICT/Graphics lab)
  2. The datasets from the BCN and Ruby city scenes contain up to 64 data layers per voxel, including diffuse albedo, fresnel reflectance values, irradiance data, UV coordinates (up to 8 sets), normals, and, for static scenes, look up vectors for 1-20 bounces of light from up to 252 evenly distributed viewpoints (it is important to note that this data is always 100% optional, as the raycaster can do this procedurally when the voxels are close and reflection precision is more important than speed; however, with cached reflectance data, you might see the scene rendering at 100s-1000s of fps when the scene isn’t changing).
  3. A note on raytracing vs. rasterization: amplifying the tree trunk in Fincher’s Bug Snuff demo to 28 million polys using the GPU tessellator turned out to be faster than rendering a 28 million voxel point cloud for this object. So there is a threshold where voxels become faster than rasterziation at about 100 million polys. At least in our engine, on R7xx GPUs, using full precision raycasting at 1280×720. Below that point, traditional rasterization using the GPU tessellator seems to be faster for a single viewport.
  4. The engine can convert a 1 million poly mesh into voxel data in about 1/200th second on R770 (60 fps on R600 and 8800 GTX). This is useful for baking dense static scenes that are procedurally generated once, or infrequently, on the GPU. That is why some of the OTOY demos require the GPU tessellator to look right.
  5. Hard shadows in OTOY were done using rasterization until we got R770 in May. Now hard shadows, like reflections, can be calculated using raycasting, although shadow masks are still very useful, and raycasting with voxel data can still give you aliasing.
  6. We can use the raycaster with procedurally generated data (perlin generated terrain or clouds, spline based objects etc.). At Jon Peddie’s Siggraph event, we showed a deformation applied in real time to the Ruby street scene. It was resolution independent, like a Flash vector object, so you could get infinitely close to it with no stair stepping effects, and likewise, the shadow casting would work the same way.
  7. The voxel data is grouped into the rough equivalent of ‘triangle batches’ (which can be indexed into per object or per material groups as well). This allows us to work with subsets of the voxel data in the much the same way we do with traditional polygonal meshes.
  8. The reflections in the march 2007 ‘Treo’ video are about 1/1000th as precise/fast as the raycasting we now use for the Ruby demo on R770/R700.
  9. One R770 GPU can render about 100+ viewports at the quality and size shown in the ‘Treo’ video. When scenes are entirely voxel based, the number of simultaneous viewports is less important than the total rendered area of all the viewports combined.
  10. The server side rendering system is currently comprised of systems using 8x R770 GPUs ( 8 Gb VRAM, 1.5 Kw power per box).

10.01.2009 опубликовал
в рубрике технологии с тэгами: , , .



Get Adobe Flash player



Предыдущая статья: «

Следующая статья: »


Похожие статьи


    Fatal error: Call to undefined function related_posts() in /home/artishev/artishev.com/docs/wp-content/themes/artishev/single.php on line 106