11 de May de 2020
Fuente+1
11 de May de 2020
Fuente+3
08 de May de 2020
Fuente+1
Errores silenciosos de datos (SDEs o silent data errors) es un fenómeno poco conocido ya que se investiga a nivel de ingeniería informática/electrónica y principalmente en datacenters.
Esto solo es relevante a nivel de cpus muy complejos y en las densidades computacionales de data centers, no es en absoluto algo nuevo de lo que debamos preocuparnos.
Resulta que la reducción de el tamaño de fabricación de los silicios también dificulta la precisión y exactitud de su producción, y el mercado requiere producción masiva.
Estamos hablando de la última frontera en investigación de alto nivel sobre fidelidad en sistemas informáticos, que nadie se alarme.
Expertos opinan sobre como los micros actuales van al limite de todo, pero si no tienes un Meta o un Google no te preocupes.
Salu2.
@defaultuser Pues efectivamente, es 'silenciosos'. No sé yo por qué lo había traducido como 'ocultos'.
Nunca había leído sobre este tema. Sobre tasas de fallo en memorias RAM hay bastante escrito y de hecho hay implementaciones vía hardware. No se yo si ese tipo de errores es achacable a la fabricación y es comparable a esto (supongo que no por lo "simple" de una memoria RAM y lo complejo de un procesador).
El hecho de que intenten atacar el problema de las CPUs vía software ya da una idea de resbaladizo que debe ser el tema.
@cobito En la ram no es por fabricación, lo que ocurre es que las "unidades" donde se almacena los bits son básicamente capacitores, y por lo visto tienden a perder un poco su nivel energético cuando están activados, de ahí que la ram se autorrefresca.
Ya el disponer de ECC, se ve que fuera de servidores o workstation no merece la pena, pasara como con el SDEs supongo.
@cobito dijo en Errores de datos ocultos:
El hecho de que intenten atacar el problema de las CPUs vía software ya da una idea de resbaladizo que debe ser el tema.
Pasa inadvertido a todo absolutamente a excepción de las tools especificas de análisis imagínate, será tal vez que este fenómeno lo descubrió la teoría y posterior comprobación? vete a saber.
El caso es que se ve que empieza a tener una incidencia como para tomarlo mas en serio, entre que la integración mas pequeña da menos precisión del acabado, y que la planta informática no para de crecer, tiene sentido que llegado cierto punto el control de este fenómeno sea crucial.
mencionan una herramienta, el Fire Tool, no lo he visto pero seguro que es un galimatias.
08 de May de 2020
Fuente+2
08 de May de 2020
Fuente+1
08 de May de 2020
Fuente+1
08 de May de 2020
Fuente+3
07 de May de 2020
Fuente+0
Que barbaridad, para batir eso habría que aspirar el helio con una bomba de vacío grandecita, o mejor todavía lo metes todo en una cámara de ultra congelación industrial.
Lo que te digo yo, en un futuro lejano en el que se este extrayendo helio para combustible en la luna se batirán allí los récords, pero en la cara oculta jjj que en la otra todavía hace calor.
Y yo que recuerdo cuando la peña montaba láminas peltir sin pensar en el precio de la luz ....
Saludos
Toma ya! Esto no lo supera ya nadie. Cuanto estuvo el record ese de los celeron cedar mill a 8Ghz? Y ademas hace bastante de eso. Mencion a parte este espectacular articulo de Anandtech del año 2000 donde decian que para el 2005 netburst llegaria a los 10GHz a 1V: https://www.anandtech.com/show/680/6
Me pregunto de cuantos kW es el TDP de la cpu en esta prueba.
@palotes dijo en Core i9-13900K a 9GHz:
Mencion a parte este espectacular articulo de Anandtech del año 2000 donde decian que para el 2005 netburst llegaria a los 10GHz a 1V:
Bueno si lo decían pensando en la capacidad de computo que haría falta.... divídelo entre los núcleos que se usaban alrededor del 2005 y lo mismo tampoco iba tan desencaminado.
@palotes dijo en Core i9-13900K a 9GHz:
Me pregunto de cuantos kW es el TDP de la cpu en esta prueba.
Tu querías decir W no? a kilovatios no llegara ni a uno.
07 de May de 2020
Fuente+0
06 de May de 2020
Fuente+0