Игровые приставки следующего поколения

Это всё иллюзии геймс фор виндовс уже неактуально.
Ага расскажи это Микрософт:) ''а рeбята то и не знают''
Когда выйдет новая винда тогда будет актуально с новым управлением
Так как пошла Виста я сомневаюсь что в следующей будут бесплатно новый контроллер для игр выдавать
 
Такс по имеющейся информации скорости 8х БР не хватит для быстрой загрузки 4Гб РАМ посему пошли слухи что следующее поколение возможно получит SSD карты(или что то подобное)
http://forum.beyond3d.com/showthread.php?t=48244&page=9
 
Херню какую-то выдумывают.
 
Картриджи по любому дешевле SSD. ;)

В следующем поколении будет сильно задействована цифровая дистрибьюция, которая на текущем поколении только обкатывается. Оптические носители так же будут присутствовать, но но будут уже играть меньшую роль.
 
Если игры будут весить не больше 20 гб, то ещё куда не шло. Но зная, как работают серваки, когда "всем надо", лучше этого не делать. Ладно я со своими 2 мб. А если придёт Shizo со своими 75? А ведь он не один. Вот будет невесело-то.
 
По неподтверждённым(естественно) данным Сони заключила контракт с Интел на производство нового ГПУ от ИНТЕЛ Лараби для своей следующей приставки ПС4
Интересно как тогда они совместимость с ПС3 сделают?
Rumor: The Sony switch to Intel's Larrabee chip
http://news.cnet.com/8301-1001_3-10159175-92.html
Intel is shooting for PlayStation 4, but has it scored?
http://arstechnica.com/gaming/news/2009/02/intel-is-shooting-for-playstation-4-but-has-it-
scored.ars
Intel will design PlayStation 4 GPU
http://www.theinquirer.net/inquirer/news/851/1050851/intel-design-playstation-gpu
 
По неподтверждённым(естестве? ?но) данным Сони заключила контракт с Интел на производство нового ГПУ от ИНТЕЛ Лараби для своей следующей приставки ПС4
Кто-то писал, что приставки вообще ничего общего не имеют с компами... Видимо, для того, чтобы уж точно ничего общего не иметь, теперь процы интел там будут...
 
Более того там пишут что Сони недовольна партнёрством с Нвидиа и её RSX значительно снизившего возможности ПС3 Политика Нвидиа довольно странна я сначала МС с хбох теперь Сони ,в результате конкуренты типа АТИ варятся в консольном бизнесе, а Нвидиа пролетает после очередной неудачной бизнес модели
Хотя пока это только слухи
 
И какое это вообще имет значение ? Первый бокс вообще по-сути был обычным компом со специальной операционкой, однако он все равно остался приставкой. Для конечного пользователя все равно это не имеет никакой практической пользы.
 
Кто-то писал, что приставки вообще ничего общего не имеют с компами... Видимо, для того, чтобы уж точно ничего общего не иметь, теперь процы интел там будут...

Слухи идут о GPU, а не CPU. А проц все равно будет от IBM (либо новая вариция Cell, либо что-то еще) - нынешнее поколение показало, что конкурентов у компании на этом рынке нет.
 
Более того там пишут что Сони недовольна партнёрством с Нвидиа и её RSX значительно снизившего возможности ПС3 Политика Нвидиа довольно странна я сначала МС с хбох теперь Сони ,в результате конкуренты типа АТИ варятся в консольном бизнесе, а Нвидиа пролетает после очередной неудачной бизнес модели
А какая карта стоит на ПС3?
 
А какая карта стоит на ПС3?
http://www.edepot.com/playstation3.html
RSX - Reality Synthesizer
The RSX is a graphical processor unit (GPU) based off of the nVidia 7800GTX graphics processor, and is a G70/G71 hybrid with some modifications. The RSX has separate vertex and pixel shader pipelines. The chip model number is CXD2982GB. The following are relevant facts about the RSX...

8 vertex shaders at 500Mhz
28 pixel shaders (4 redundant, 24 active) at 550Mhz
28 texture units (4 redundant, 24 active)
8 Raster Operations Pipeline units (ROPs)
Includes 256MB GDDR3 650Mhz clocked graphics memory
Earlier PS3 Models: Samsung K4J52324QC-SC14 rated at 700Mhz
Later PS3 Models: Qimonda HYB18H512322AF-14
GDDR3 Memory interface bus width: 128bit
Rambus XDR Memory interface bus width: 56bit out of 64bit (serial)
258mm2 die size
90nm (earlier models) and 65nm (later models) technology
More features are revealed in the following chart delineating the differences between the RSX and the nVidia 7800 GTX.

Difference RSX nVidia 7800GTX
GDDR3 Memory bus width: 128bit - 256bit
ROPs: 8 - 16
Post Transform and Lighting Cache: 63 max vertices - 45 max vertices
Total Texture Cache Per Quad of Pixel Pipes (L1 and L2): 96kB - 48kB
CPU interface: FlexIO - PCI-Express 16x
Technology : 65nm/90nm - 110nm

Other RSX features/differences include:

More shader instructions
Extra texture lookup logic (helps RSX transport data from XDR)
Fast vector normalize

Note that the cache (Post Transform and Lighting Vertext Cache) is located between the vector shader and the triangle setup.

A sample flow of data inside the RSX would see them first processed by 8 vertex shaders. The output are then sent to the 24 active pixel shaders, which can involve the 24 active texture units. Finally, the data is passed to the 8 Raster Operation Pipeline units (ROPs), and on out to the GDDR3. Note that the pixel shaders are grouped into groups of four (called Quads). There are 7 Quads, with 1 redundant, leaving 6 Quads active, which provides us with the 24 active pixel shaders listed above (6 times 4 equals 24). Since each Quad has 96kB of L1 and L2 cache, the total RSX texture cache is 576kB. General RSX features include 2x and 4x hardware anti-aliasing, and support for Shader Model 3.0.

Although the RSX has 256MB of GDDR3 RAM, not all of it is useable. The last 4MB is reserved for keeping track of the RSX internal state and issued commands. The 4MB of GPU Data contains RAMIN, RAMHT, RAMFC, DMA Objects, Graphic Objects, and the Graphic Context. The following is a breakdown of the address within 256MB of the RSX.

RSX Libraries
The RSX is dedicated to 3D graphics, and developers are able to use different API libraries to access its features. The easiest way is to use high level PSGL, which is bascially OpenGL|ES with programmable pipeline added in. At a lower level developers can use LibGCM, which is an API that talks to the RSX at a lower level. PSGL is actually implemented on top of LibGCM. For the advanced programmer, you can program the RSX by sending commands to it directly using C or assembly. This can be done by setting up commands (via FIFO Context) and DMA Objects and issuing them to the RSX via DMA calls.

Speed, Bandwidth, and Latency
Because of the aforementioned layout of the communication path between the different chips, and the latency and bandwidth differences between the various components, there are different access speeds depending on the direction of the access in relation to the source and destination. The following is a chart showing the speed of reads and writes to the GDDR3 and XDR memory from the viewpoint of the Cell and RSX. Note that these are measured speeds (rather than calculated speeds) and they should be worse if RSX and GDDR3 access are involved because these figures were measured when the RSX was clocked at 550Mhz and the GDDR3 memory was clocked at 700Mhz. The shipped PS3 has the RSX clocked in at 500Mhz (front and back end, although the pixel shaders run separately inside at 550Mhz). In addition, the GDDR3 memory was also clocked lower at 650Mhz.

256MB XDR 256MB GDDR3
Cell Read 16.8GB/s 16MB/s
Cell Write 24.9GB/s 4GB/s
RSX Read 15.5GB/s 22.4GB/s
RSX Write 10.6GB/s 22.4GB/s

Because of the VERY slow Cell Read speed from the 256MB GDDR3 memory, it is more efficient for the Cell to work in XDR and then have the RSX pull data from XDR and write to GDDR3 for output to the HDMI display. This is why extra texture lookup instructions were included in the RSX to allow loading data from XDR memory (as opposed to the local GDDR3 memory).
 
Странный заказ если это правда. Intel совершенно не разбирается в видеокартах и все, что они умеют делать в этой области, так это интегрированную, глюкавую и мега тормозную встроенную графику. Либо это неправда, либо они пойдут по пути Nintendo со своей слабой консолью, либо люди, принявшие такое решение - полные лохи и ничего не смыслят в деле. Если еще один вариант - Sony некуда девать деньги и они решили хорошенечко вложиться в Intel и сделать их гигантом графики, на равное с AMD(ATI) и Nvidia. Intel это крайне выгодно, но выгоды SCE в этом абсолютно никакой.
 
Что-то мне начинает казаться, что следующее поколение консолей будет ещё дерьмовее нынешнего.
 
Интел уже оказываеццо полные профаны :lol:
Технология Larrabee основывается на архитектуре x86 и включает в себя ядра от Intel Pentium, в которые добавлена поддержка 64-битных команд и многопоточности. Компания планирует оснастить каждое ядро 256 КБ кэш-памяти, чей общий размер будет зависеть от количества ядер. Согласно презентации компании, которая была проведена в Сан-Франциско, число ядер в будущих процессорах будет варьироваться в пределах от 8 до 48 штук

Larrabee отличается от графических процессоров, находящихся сейчас на рынке. Он использует набор инструкций схожих с X86, что делает этот GPU более «гибким», чем GPU конкурентов. В дополнение к обработке графики в компьютерных играх Larrabee будет способен проводить физические расчёты и, по заявлениям Intel, предложит трассировку лучей в реальном времени.

Судя по всему, проект Larrabee от Intel начинает приносить плоды. Как ожидается, в это воскресенье ведущие телеканалы в США начнут показывать первые трехмерные рекламные ролики, а также новый мультипликационный фильм “Monster vs. Alien” (Чудовища против инопланетян) от киностудии DreamWorks. Как сообщает ExtremeTech, они были выполнены на рабочих станциях на базе процессоров Xeon и графических процессоров Larrabee от Intel.

Кажется, DreamWorks знает о достоинствах Larrabee лучше, чем кто-либо другой. Еще в июле прошлого года эта студия заключила соглашение с Intel об использовании таких графических процессоров в создании 3D мультфильмов. По данным, полученным ExtremeTech, рабочие станции на базе процессоров Xeon и графических процессоров Larrabee просто творят чудеса, и телезрители в США скоро получат возможность оценить достоинства технологии InTru3D. Как заявили представители DreamWorks, эта студия скоро перейдет на рабочие станции на базе новейших процессоров Xeon Nehalem. Таким образом, можно ожидать, что качество 3D фильмов от этой студии станет еще выше.

Кажется, NVIDIA и ATI уже начинают чувствовать, что Intel дышит им в затылок.
mva.jpg

 
Интел уже оказываеццо полные профаны
Покажи-ка мне ихнюю видеокарту, которая может конкурировать с AMD и Nvidia.
Если мне не изменяет память, то единственной их видяхой был Intel 740 8MB. У меня как раз такая стояла в компе некоторое время, лет 10 назад.

Технология Larrabee основывается на архитектуре x86 и включает в себя ядра от Intel Pentium, в которые добавлена поддержка 64-битных команд и многопоточности.
Фак, пень4 это же тоооооормоооооз.

что делает этот GPU более «гибким», чем GPU конкурентов.
Я хоть и профан во всех этих технологиях, но точно могу сказать, что гибкая архитектура графическому процессору как собаке пятая нога - только мешает. GPU не должен быть гибким - на них взвалена всего одна задача. Современные видеокарты в разы лучше кодируют видео чем универсальные(гибкие) центральные процессоры. Даже физику GPU вычисляет в десятки раз лучше CPU. Видяха на базе много-пентиумов будет дорогим тормозом, коих еще поискать нужно.

предложит трассировку лучей в реальном времени.
Если тоссировка лучей, намного важнее быстрой физики и высокого фпс, то интел несомненно будет лидировать. В скором будущем, я уверен, эту технологию предложат так же AMD & Nvidia.

выполнены на рабочих станциях на базе процессоров Xeon и графических процессоров Larrabee от Intel
Рабочие станции и игровые станции это две, совершенно разные вещи, выполняющие разные задачи. Спецеффекты обрабатывают не в реальном времени со скоростью 24/30/60FPS, когда все идет в ущерб картинке, а покадрово, с наилучшим качеством.


P.S. В свое время Sony хотела встроить в PS3 два Cell - один в качестве центрального процессора, а другой в качестве видеокарты, в последствии, глядя на дерьмовую производительность Cell'a в графических приложениях от этого отказались и в попыхах, т.к. вермя поджимало, заказали чип у Nvidia. Неужели они так ничему и не научились? Неужели они хотят наступить на теже самые грабли второй раз, заказав процессор в качестве видеокарты???
 
Покажи-ка мне ихнюю видеокарту, которая может конкурировать с AMD и Nvidia
И что ? покажи мне процессор от Нвидиа или АТИ превосходящий серию Коре,если Интел не делала Видео раньше это не значит что она не понимает как их делать
Я хоть и профан во всех этих технологиях, но точно могу сказать, что гибкая архитектура графическому процессору как собаке пятая нога - только мешает
Видяха на базе много-пентиумов будет дорогим тормозом, коих еще поискать нужно.
Неужели они хотят наступить на теже самые грабли второй раз, заказав процессор в качестве видеокарты???
Лараби всегда позиционировался как ГПУ или ГПГПУ
Я конечно профан но афигенно умный профан и в таких вопросах разбираюсь :lol:
 
gera,
Мульт жжот! :D Надо будет сходить =)
 
Назад
Сверху