Архивы: по дате | по разделам | по авторам

Deus contra Machina?

Архив
автор : Игорь Гордиенко   01.09.1998

Космические лучи оказывают влияние на развитие михросхем.

.Position.Photo

В 1964 году в Кракове впервые была издана книга легендарного для советских читателей визионера Станислава Лема «Summa Technologiae»<1> (в СССР перевод был опубликован в условиях цензурного неприветствия латинизмов и «чуждой» католической культуры под титулом «Сумма технологии»), которая до сих пор является своего рода культовым произведением - азбукой теоретика-конструктора-технофила.

Минувшие 35 лет вроде бы подтвердили прямые предвидения Лема. Характерными примерами этого являются даже эмпирические «законы», выявленные одним из основателей компании Intel Гордоном Муром (Gordon Moore) и изобретателем Ethernet Робертом Меткафом (Robert Metcalfe). Широко известный «закон» Мура гласит, что плотность упаковки активных элементов в полупроводниковых микросхемах удваивается каждые 18 месяцев. Второй, менее известный публике «закон», декларированный Меткафом<2>, гласит, что мощность любой сети пропорциональна квадрату числа подключенных узлов (пользователей). Именно взаимно усиленное совместное действие (синергетическая суперпозиция - sic!) этих эмпирических закономерностей и обеспечивает ту умопомрачительную феерию «нового дивного мира» информационных hi-tech.

С другой стороны, несмотря на внешне наблюдаемый и даже ощущаемый так называемый технологический прогресс, многие принципиальные аспекты бытия как были, так и остаются в сфере эзотерики. А в некоторых областях ощутимое давление «другого мира» даже нарастает.

Опубликованные в общедоступной литературе впервые два года назад данные о многолетних исследованиях IBM относительно влияния космических лучей на массивы полупроводниковой памяти, получившие неожиданную подпитку после выхода на арену массовых компьютеров с емкостями оперативной памяти уровня 1 Гбайт и более, являются изрядным подспорьем высказанному тезису и, более того, заставляют поразмыслить кое о чем еще. Например, о приметах времен, близких к Апокалипсису... Конечно, ригоризм и крайности - всегда только следование на поводу у противных слабостей. Но кто без греха?

Кто стелет «мягко»?

Суть дела такова. В период с 1954 по 1957 годы при проведении наземных ядерных испытаний в США в обслуживающей цифровой аппаратуре, поставлявшейся IBM для военного ведомства, был обнаружен эффект «мягких» (soft) отказов. Этот термин должен был затвердить отличие этого сорта неполадок от «жестких» выходов из строя (hard failures), которые определяли состояния аппаратуры, подвергшейся воздействию больших доз жесткой радиации.

К жестким отказам относятся любые необратимые неисправности электронного оборудования. Они могут быть вызваны, выражаясь фигурально, миллионами разных причин.

К слову сказать, еще лет пять - шесть тому назад внимание исследователей привлекали «мягкие» отказы, вызванные примесями химических элементов, которые «застревали» в самой микросхеме (то ли в пластмассе корпуса, то ли в выводной рамке чипа) в процессе производства. Эти примеси предрасполагали к высвобождению альфа-частиц, что и могло быть явной причиной необратимых повреждений. К нынешнему времени ситуация изменилась. Производители успешно усовершенствовали технологии: альфа-частицы более не являются проблемой (по крайней мере, для IBM). Теперь корпорации взволнованы «мягкими» отказами, вызванными космическими лучами. А ведь в начале 70-х годов эти феномены были эзотерикой - для самых посвященных в таинства технологий микроэлектроники.

Сначала причина «мягких» отказов оставалась непонятной. Но в 1975 году был документально зафиксирован факт сбоя цифровой аппаратуры вследствие вспышки на Солнце - это и стало ключом к разгадке событий: один из главных источников «мягких» отказов микроэлектроники - космические лучи. А в 1978 году IBM впервые опубликовала материалы о возможных последствиях воздействия космических лучей на электронное оборудование, схемы памяти, в частности.

На сайте (www.almaden.ibm.com/journal/rd40-1.html) имеются внушительные свидетельства колоссальной исследовательской работы, проведенной с 1978 по 1994 год коллективом под руководством доктора Джеймса Ф. Зиглера (James. F. Ziegler), ныне являющегося менеджером направления исследований в IBM. В ходе экспериментов в режиме постоянного считывания информации были сняты показания с более чем 800 микросхем DRAM (Dynamic Random Access Memory). Опыты проводились на уровне моря, в горных местностях и в подземных пещерах. Свидетельств накоплено немало. Память компьютерная, как и любая другая, подчиняется все тем же постулатам причинно-следственных отношений, где причины - стохастичны и вплетены в ткань Вселенной, а следствия - диверсифицированы. Не наш это замысел, не человеческие конструкции.

Что же представляют собою космические лучи?

 

Космические лучи были открыты в результате чрезвычайного любопытства и упорства, проявленного Виктором Гессом (Victor Hess), австрийским исследователем, пытавшимся найти объяснение малозначительным странностям в экспериментах с радиоактивными веществами.

В начальный период широких исследований явления естественной радиоактивности, примерно с 1898 до 1912 года, эксперименты проводились с помощью приборов, называвшихся электрометрами. Такой прибор представлял собой вакуумную колбу, в которой располагались два близкорасположенных контакта - тонкие металлические ленточки. Когда в объеме колбы появлялся заряд, ленточки электризовались и слипались, что позволяло регистрировать факт прохождения излучения.

Важно отметить, что показания электрометров всегда корректировались с учетом некой «утечки». Странным было то, что утечка зависела только от размеров колбы и от времени экспозиции, а вовсе не от зарядов, которые протекали через ленточки-контакты. Такое неожиданное поведение электрометров приводило к мысли о существовании некоторого неизвестного постоянного источника излучения. Виктор Хесс выяснил, что «утечки» существенно уменьшаются при погружении электрометра под воду или в пещеры. Наконец, в 1912 году он блестяще решил проблему происхождения неизвестных излучений, подняв два измерительных устройства на воздушном шаре на высоту шести километров. Стало очевидным, откуда исходит поток излучения. За это открытие в 1936 году Виктор Гесс, уже будучи гражданином США, был удостоен звания лауреата Нобелевской премии.

Само выражение «космические лучи», имени автора которого история не пощадила, впервые появилось в массовой прессе в 1914 году. Оно прижилось и употребляется по сей день, хотя и не вполне отвечает явно корпускулярной природе феномена.

Космические лучи являются элементарными частицами (на 99,9%) и гамма-квантами (на 0,1%), которые бомбардируют атмосферу Земли извне. Они обладают энергиями, варьирующимися в очень широком диапазоне: от нескольких ГэВ (гига-электронвольт) до более чем 100 ЭэВ (эксо-электронвольт - 1018). Чтобы понять, насколько велика последняя цифра, достаточно сказать, что протон с энергией 100 ЭэВ обладает той же энергией, что и теннисный мяч, несущийся на скорости 500 километров в час!

Распределение плотностей потоков космических лучей сильно зависит от энергии составляющих их частиц. Малоэнергетичные лучи имеют высокую плотность (многие тысячи на каждый квадратный метр каждую секунду). Частицы высоких энергий очень редки - не более единиц на квадратный километр за годы. Из этого следует, что исследовать высокоэнергетичные частицы весьма проблематично. Известно, что большую часть приходящих из космоса лучей представляют одиночные протоны, хотя в первичных космических лучах имеются тяжелые атомные ядра многих элементов, включая даже ядра атомов железа.

 

Интенсивность потока космических лучей не изменяется во времени. Через лист бумаги каждую секунду проникает не менее дюжины частиц. А тело человека на протяжении его жизни пронзают не менее 10 млрд. частиц.

Каковы наиболее мощные зарегистрированные космические лучи? 15 октября 1991 года в обсерватории в пустыне штата Юта, США, был зарегистрирован ливень вторичных частиц от космического странника, несшего энергию в 3х1020 электронвольт. Единичные частицы, зафиксированные лабораториями России, США, Великобритании и Японии, обладали энергиями около 200 ЭэВ.

Вообще, принято считать, что частицы с энергиями до 1016 электронвольт вполне могут иметь «местное», галактическое происхождение, например, от вспышек сверхновых. А вот, что касается весьма редких частиц очень высоких энергий, то механизмов их образования в нашей Галактике пока найти не удалось. Более того, их происхождение - загадка. С одной стороны, они должны приходить извне Галактики, поскольку в известном мире таких механизмов разгона частиц просто нет. С другой стороны, их источник не может находиться далее 30 млн. световых лет - в противном случае частиц такого уровня энергии просто не существовало бы: она терялась бы при прохождении через межгалактическую среду, заполненную микроволновым реликтовым фоном - следом «Большого Взрыва». По поводу происхождения частиц гигантских энергий продолжают появляться все новые экзотические физические теории.

По большей части, космические лучи не оказывают на материальную сферу Земли заметных влияний (как это видно банальному сознанию), хотя есть основания полагать, что именно они воздействуют на хромосомы биологических организмов и вызывают мутации, и, как следствие, - эволюцию биосферы. Существует даже теория, гласящая, что космические лучи - своего рода споры разумной жизни во Вселенной.<3>

Высокоэнергетичные первичные космические лучи, попадая в атмосферу и сталкиваясь с атомами кислорода и азота, порождают ливни вторичных космических лучей. Эти потоки состоят из обломков ядер кислорода и азота. Кроме того, образуются новые элементарные частицы (пионы, гипероны, каоны). Вся эта смесь, включая и первичные частицы, продолжает свой путь к поверхности Земли, претерпевая все новые столкновения и распады. Энергия частиц снижается и короткоживущие частицы распадаются, порождая другие. К примеру, в массе возникают долгоживущие частицы с высокой проникающей способностью, которые составляют «жесткий» компонент атмосферных космических ливней - элементарные частицы, именуемые адронами (в эту группу входят нейтроны, пионы, протоны). Именно адроны эффективно воздействуют на структуры микросхем, вызывая «мягкие» отказы.

Для полноты картины нужно отметить, что кроме «жесткого» компонента, в вышеописанных столкновениях возникают фотоны, которые могут распадаться, порождая пары электрон-позитрон. Электроны и позитроны, в свою очередь, могут аннигилировать, снова порождая фотоны. Все эти частицы - фотоны, электроны и позитроны - формируют то, что называется электромагнитным или «мягким» компонентом атмосферных ливней.

«Факты - вещь упрямая»?

Итак, адроны, то есть «жесткие» частицы, порожденные космическими лучами, могут «выталкивать» электроны - носители информации в ячейках памяти, на расстояния, измеримые микронами. Что это значит? Прозаически выражаясь, давала ячейка информации в 1 бит значение «0», а стало - «1» (или наоборот). Что это может повлечь - объяснять вряд ли нужно. Все, что угодно...

В 1977 году появились модули памяти емкостью 16 Кбит, и заряд ячейки хранения 1 бита информации стал оцениваться примерно в 1 млн. электронов - по сравнению с 4 млн., которые были типичны для микросхем емкостью 4 Кбит. Если линейно экстраполировать эту последовательность, то получается, что в современных 16-мегабитных чипах состояние одного бита хранят всего 1000 электронов - очень зыбкое количество. И даже не пытаясь найти точку опоры в своевольно экстраполированных цифрах (слишком много факторов влияет на то, какое количество электронов представляет 1 бит информации в современном чипе DRAM: их определение - самостоятельная исследовательская работа), могу смело утверждать, что для отображения битов используются все меньшие количества материи.

До того как емкость DRAM достигла 1 Мбит, эти чипы исполнялись как планарные транзисторные структуры. Но уже с начала 80 годов предпринимались активные меры к тому, чтобы развить и задействовать трехмерность. Эти усилия были плодотворными и, в результате, физические размеры ячеек памяти значительно уменьшились и продолжают уменьшаться.

Апеллируя к авторитетным свидетельствам Зиглера<4>, отмечу следующие хронологические тенденции в структурном развитии микросхем памяти DRAM. Каждые три года рождается новое «поколение» DRAM: типичные объемы возрастают в четыре раза, причем одновременно площадь средней элементарной ячейки памяти уменьшается в три раза<5>.

Теперь немножко фактографии, извлеченной из экспериментов. Прежде всего, отмечу, что в открытых публикациях (как в Интернете, так и на полках библиотек) имеется обширный корпус источников, освещающих проблему влияния электромагнитных и корпускулярных излучений на микроэлектронику. Затронув это тело, можно только удивляться множественности аспектов этого вопроса. К примеру, можно окунуться в совершенно обособленную атмосферу теорий, технологий и методов защиты полупроводниковых приборов в открытой космической среде.

Круг интересов и предметов данной статьи тоже, по-своему, узок и конкретен. Но и на тему влияния космических лучей на чипы памяти бытовых компьютеров написано, ой, как немало! Поэтому ограничимся данными из серии экспериментов, проведенных исследовательской группой Зиглера, по хронологически наиболее позднему (и доступному для меня) источнику, материалы которого были опубликованы авторами в августе прошлого года. Это все та же статья из «IEEE Journal Of Solid-State Circuits», на которую уже была дана ссылка.

Кто-то (мне помнится, это был один из вершителей уникальной истории нашего Отечества) как-то сказал, что факты - вещь упрямая. Я знаю другое: факты, это то, с чем позволительно (или приходится) быть упрямым до тупости.

В ходе эксперимента, предпринятого командой Зиглера, были опробованы 26 отличных друг от друга интегральных схем DRAM разных производителей. Как главный аргумент эксперимента, были взяты конструкции элементарных ячеек памяти, общим числом три: многослойные емкостные ячейки (SC - Stacked Capacity), заглубленные ячейки с внешним зарядом (TEC - Trench [cell] with External Charge) и заглубленные ячейки с внутренним зарядом (TIC - Trench [cell] with Internal Charge). Все они подвергались воздействию потоков адронов с энергиями от 14 до 800 МэВ - в режимах, имитирующих условия, максимально близкие к естественным на уровне моря. Вся регистрирующая аппаратура была надежно защищена от побочных эффектов от тех же источников.

Уровень "мягких" отказов (SER) TEC SC TIC
Число отказов/10^15 бит-часов 1300-1500 110-490 0,6-0,8
Число отказов/ 32 Мбайт-год 2,9-3,4 0,25-1,1 0,0014-0,0018

Тип ячеек в чипах памяти DRAM

Не вдаваясь глубоко в тонкости эксперимента, должен донести публике важный вывод из него: уровень «мягких» отказов (SER - Soft Error Rate) радикально менялся в зависимости от типа конструкции ячеек памяти. Более того, множества SER, полученные для каждого из указанных типов ячеек, не пересекались! Результаты экспериментов приведены на рис. 4. Ну, а чтобы приблизить данные экспериментов к житейскому пониманию, приведу еще и табличку.

Здесь возникает простой и законный вопрос: а какой тип ячеек в чипах памяти конкретного компьютера, например, того, который стоит на вашем столе? При всем желании я не смогу ответить на этот вопрос в отношении ноутбука, на котором готовлю данную статью... Но как понимать сообщения Windows 95/98 «Illegal operation», после которых «туши свет»?

Важно ли это? Не слишком. Несмотря на то, что показатели SER различаются для разных конструкций ячеек в 1500 раз, нет и речи об абсолютной защите и полном устранении эффекта. А разброс количества «мягких» отказов для массива памяти в 1 Гбайт весьма широк - от 0,5 (для ячеек TIC) до 110 (для ячеек TEC) за год. Последняя цифра заставляет озаботиться и призадуматься: в среднем, каждые 3 дня - «мягкий» отказ. Что (с некоторой натяжкой, конечно) примерно и отвечает частоте тупиковых ситуаций, сопровождающихся одиозными сообщениями.

Испуги и игры на рубежах

Как отметил в середине июня журнал «EE Times» (www.eet.com), проблема «мягких» отказов, ранее являвшаяся предметом для академических исследователей и производителей специального оборудования, вскоре может стать причиной головной боли у массового потребителя.

Еще раз назойливо укажу (узелок завяжу) на причины: объемы памяти растут, а размеры ячеек уменьшаются. Поэтому «мягкие» отказы будут становиться все более нечувствительными к превентивным мерам при проектировании чипов памяти. А эффект одновременных (многобитных) ошибок во множестве ячеек вообще может превратиться в повседневную банальность (с возможным фатальным исходом) для массовых систем. Как шутят аналитики, при наилучшем исходе такой эффект выразится в добавлении лишнего нуля в ведомостях зарплат сотрудников корпораций.

Необходимо учитывать, что исправление ошибок, в том числе «мягкого» происхождения, всегда было одной из главных задач мэйнфреймов (главной продукции IBM) - базовой аппаратуры для обработки данных критического назначения.

Появившиеся в этом году решения для персональных компьютеров, такие как архитектура системной платы 440BX, уже допускают установку 1 Гбайт RAM. Подобные объемы определенно обещают уязвимость системы в целом. При таких объемах памяти уже нужно серьезно озаботиться системами защиты от ошибок в изделиях для массового потребителя - может быть даже такими совершенными, которые применяются в мэйнфреймах.

А вот мнения и эмоции некоторых авторитетов. Технический менеджер из Toshiba America Electronic Components Кевин Килбак (Kevin Kilbuck) утверждает: средний уровень отказов в компьютерах массового применения всегда пропорционален объему DRAM. При наличии памяти даже 64 или 128 Мбайт на персональном десктопе пользователь непременно сталкивается с «мягкими» отказами, но он не склонен обращать на них внимания - в крайнем случае он просто перезагрузит систему (я сам тому пример - И.Г.). Однако в случаях обработки критических данных, например, банковских, игнорировать отказы таким или иным образом невозможно.

Как считает Тим Делл (Tim Dell), старший менеджер проектов в IBM Microelectronics, даже при работе на десктопе с памятью в 256 Мбайт обычный пользователь хотя бы раз в месяц непременно оказывается жертвой «мягкого» отказа (скорее всего, сам об этом не подозревая). На практике эти эффекты усиливаются производным поведением не слишком интеллектуального оборудования, призванного исправлять ошибки, - систем ECC (Error Code Correction).

Несмотря на то, что в ходе экспериментов Зиглера была установлена относительно незначительная доля ошибок одновременно в двух битах памяти - 5% от общего значения SER, этот феномен уже настоятельно требует учета в критических приложениях. Рынок (и технологические реалии) мигрируют к тому, что устройства памяти будут обеспечивать коррекцию 8 и 16 битов одновременно.

Систем исправления ошибок в одном бите, которые преобладают в серверах нижнего ряда, теперь будет недостаточно для обеспечения надежности. Как говорит Делл, 10 или 15 лет назад все DRAM были типа «x1». Это означало, что при каждом выходе одной схемы DRAM утрачивался 1 бит информации из слова - что можно было без проблем скорректировать с помощью обычных кодов. Обычные модули DRAM с ECC имеют не восемь, а девять чипов - последний проводит коррекцию 1-битных ошибок. А поскольку коррекция многобитных ошибок становится проблемой, то, по выражению Килбака, производители должны предложить массовому рынку схемы коррекции ошибок «x8»- или «x8x»-кратных байтам.

Одним из решений этой проблемы является встраивание схем многобитных ECC прямо в чипы DRAM. Правда, это существенно увеличивает стоимость модулей памяти. Как злорадно иронизируют некоторые обозреватели, видимо, это и есть главная причина того, что в IBM считают, что лучший способ защиты данных - создание очень непростых (и, соответственно, дорогих) заказных микросхем (ASIC - Application Specific Integrated Curcuits).

Пока чипы DRAM для массового рынка не обладают механизмами защиты от многобитных отказов. Это означает, что производители микросхем имеют возможность предлагать собственные контроллеры коррекции ошибок DRAM.

Нужно заметить, что грядущие проблемы, связанные с надежностью систем памяти, провоцируются также продвижением на массовые рынки DRAM, основанных на применении особых протоколов передачи данных. Примерами здесь являются ныне вступившие в клинч конкуренции технологии Direct Rambus DRAM<6> (D-RDRAM) и SLDRAM<7> (Synchronous-Link DRAM), предполагающие использование узкой шины на высоких<8> рабочих частотах. Именно эта концептуальная основа, по мнению скептически настроенных аналитиков, и создает благодатную почву для порождения отказов и ошибок. Это может быть следствием шумов, индуцированных передачей информации на таких высоких частотах, либо просто - чрезвычайной сложности схем управления процессами передачи информации. Делл вторит этим предсказаниям и предвещает еще большие бедствия: по его мнению, переход к «узким протоколам» может привести к тому, что отказ в единственном пересылаемом бите будет способен исказить информацию в памяти неопределенного объема.

Итак, никто не отрицает, что проблемы с массивной памятью будут нарастать. Даже специалисты Intel, с завидной энергией продвигающей технологии Direct Rambus, тоже осмотрительно упоминают о потенциальной угрозе, которую они называют «убийством чипов» (chip kill) - ситуации, которая может воспоследовать за массовым внедрением продуктов на этой основе (или на основе SLDRAM - И.Г.). Как комментировал Пит Мак-Уильямс (Pete MacWilliams), директор Intel Architecture Labs, конечно, нельзя справиться с «дохлым» устройством, но если отказ обнаружен, то можно возвратиться в предыдущие состояния и реконфигурировать память. При этом, явно не предавая остракизму враждебную Intel технологию SLDRAM, Мак-Уильямс не упускает случая лягнуть ее: она, мол, не способна обеспечивать контроль над параллельными процессами в шине передачи данных.

А вот последние сообщения с игровых площадок<9>.

IBM уже предлагает новые 168-контактные модули памяти (конструктива DIMM) с коррекцией множественных ошибок. Правда, стоят они почти на 50% дороже обычных. Пока эти модули предлагаются в варианте EDO (Extended Data-Out) DRAM, однако, ведутся разработки для SDRAM (Synchronous DRAM) и памяти, основанной на протоколах, таких как Direct Rambus (R-D) DRAM и SLDRAM.

Пока ясно одно: модули с коррекцией множественных ошибок будут существенно уступать в производительности и скорости традиционным схемам - вследствие усложненной логики. Тем не менее, IBM уверена в будущем успехе таких схем памяти: они не будут подвержены «мягким» отказам и их (sic!) можно вставлять в обычные разъемы (Bank 1, Bank 2, ...).

А в конце июля IBM объявила о том, что начинается промышленный выпуск микросхем на основе технологии SOI (Silicon-On-Insulator). Одним из достоинств этого рода производства, которое ранее из-за дороговизны процесса могло быть применено только для целей специальных космических и военных проектов, является то, что продукты его демонстрируют низкий параметр SER.

Как комментируют пресс-релизы IBM, выход технологии SOI на массовые рынки обозначает немедленный скачок более чем на два года вперед - по отношению к вялотекущей эволюции технологии CMOS.

Очень правдоподобно, что для IBM самым трудным делом в настоящее время является убедить индустрию и общественность в следующем: «мягкие» отказы - самая актуальная проблема в развитии полупроводниковых схем памяти. Например, агитатор Делл всякий раз убеждает сомневающихся потребителей в том, что во многих случаях они воспринимали «мягкие» отказы как следствия бросков питающего напряжения или поведение «плохо написанного» программного обеспечения. Более того, по его словам, «в некоторых случаях «жесткие» отказы комбинируют свое действие с «мягкими» отказами, что имеет особо опасные последствия».

Нужно все-таки откопать прагматику из почти полувековых эзотерических изысканий...

Маленький расслабон под завязку

В годы моего школьного детства была такая ходовая фраза: «Человек покоряет природу!» Транспаранты с этим и подобными лозунгами носили на майских и ноябрьских демонстрациях школьники, студенты и работники НИИ. Строили какие-то атомные электростанции, всем миром шпалы громоздили на насыпи, капусту и свеклу для всего народа всем народом на полях собирали... Сам этим занимался.

В таком циническом (и идиотском!) выражении в наши дни лозунги этого сорта не проходят. И все же... Я совершенно не подпитываюсь идеями эсхатологии на границе тысячелетий. Каждый человек от рождения - локальный Апокалипсис сам для себя.

Но вступаю в открытую оппозицию к известным носителям убогой идеи о том, что они сильны настолько, что им не нужны гипотезы о более сильных интеллектуальных началах, нежели они сами... Эту тщету и глупость много раз высмеивали люди, несравненно более умные и справедливые, нежели я.

Всякий раз, наталкиваясь на очередной запрет (или предел), полагаемый Богом, человек привлекает всю свою испорченность, и всякий раз, принося величайшие жертвы тела и духа, преодолевает эти преграды. То атом расщепит, то овцу клонирует...

Нет человеку счастья в технологическом рукодельном «Эдеме», а вот несчастье, которое всегда рядом и никогда не спит, - в мире, который есть данность. И питается это несчастье всегда одним и тем же - непониманием каждым персонажем вселенского спектакля своих роли и места на сцене.

А тут еще и деньги зарабатывать надо :)

 

«Меланхолия». Автор - Альбрехт Дюрер (1471-1528), житель Нюрнберга, мыслитель, математик, художник, оставивший в наследие почти 1000 произведений живописи и графики.

Ангел - исполнитель воли Творца в глубоком раздумьи о том, что он творит и как. Главная мысль: спокойствие духа, отрешенность от мирского - необходимое условие правильного, конструктивного действия. В руках Ангела - циркуль, - для создания небесных сфер. В нижнем ряду цифр магического квадрата Дюрер раскрыл год создания произведения - 1514.

Инструменты очевидны: рубанок, линейка, пила. Есть гвозди. Но есть вопрос: в чем современные инструменты (а они-то всего лишь инструменты) принципиально отличны от инструментов Дюрера?

Есть альтернативное мнение, например, так считал Толкен: мир был создан как гармоничная музыка и хорал - это и есть «музыка сфер», слышать которую немногим дано.

Вот вам корпускулярная и волновая основы Вселенной. В «Меланхолии» присутствует контекст печали корпускулярного пласта существования. Не то делает Ангел!..


1 Оригинальное название этого произведения в самом определенном смысле противопоставляет его уникальному труду: догмату веры, созданному доминиканцем Фомой Аквинским в 13 веке, - «Summa Teologiae». Это противопоставление и есть ось, вокруг которой вращается вся современная цивилизация - со всем ее гипертрофированным технологизмом и агонизирующей духовностью.

2 На самом деле закон Меткафа - просто другая трактовка меры сложности любой полносвязной сети, которая, как следует из простейших рассуждений, пропорциональна N*(N-1), где N - число узлов.

3 Неужели настало время для практических рассуждений о том, хорошо это или плохо, когда артефакты человеческой цивилизации (имею в виду компьютеры) вовлекаются в процессы развития Вселенной, и какая роль им уготована?

4 J. F. Ziegler at al., Cosmic Ray Soft Error Rates of 16-Mb DRAM Memory Chips. - «IEEE Journal of Solid-State Circuits». - V.33, No2, 1998 (Feb). - pp. 246-252.

5 Традиционно уменьшение площади, необходимой для реализации одной ячейки памяти, принято относить к усовершенствованию процессов фотолитографии, а в последнее время - и к введению меченных (marked) зарядов в структуры ячеек памяти.

6 Самое главное, что сделала малоизвестная год назад компания Rambus, Inc. - продала лицензию на самостоятельно разработанную технологию Direct Rambus корпорации Intel. В настоящее время эту технологию лицензировали еще 13 ведущих проектировщиков и производителей DRAM. Последние новости с этого фронта чрезвычайно интригующи. К сожалению, нет возможности здесь все рассмотреть. Отмечу только то, что новые конструктивы памяти D-RDRAM, именуемые CSP (Chip-Scale Packages), имеют массу преимуществ по сравнению с традиционными конструктивами чипов. В частности, они гораздо компактнее.

7 Согласно энциклопедии «TechWeb», технология памяти SLDRAM является улучшенной версией технологии SDRAM - за счет использования мультиплексной шины (а не просто прямых соединений через контакты чипов) для обмена данными. Первоначально акроним «SL» понимался как SynkLink, но был отброшен: это слово является зарегистрированным товарным знаком компании MicroGate. Во избежание проблем, связанных с интеллектуальной собственностью, SLDRAM теперь расшифровывается так, как указано в основном тексте статьи. Продвигает эту технологию как систему открытых стандартов некоммерческая корпорация SLDRAM Inc., которую спонсируют производители DRAM, продукция которых заполняет 90% объема общемирового рынка микросхем памяти. Технология de facto является конкурентом технологии, продвигаемой Rambus Inc. и ее главным патроном - Intel. Большинство богатеньких спонсоров SLDRAM одновременно на всякий случай стали обладателями лицензий Rambus.

8 По последним сообщениям, серийные чипы D-RDRAM, произведенные Toshiba America, обеспечивают скорость передачи данных 800 Мбайт/с. Уже появилась информация от той же корпорации, что эта скорость в ближайшее время будет как минимум удвоена. Что касается скоростей обмена данных в SLDRAM, то они тоже достигли 800 Мбайт/с. Об этом недавно объявила компания Mosaid Technologies. Борьба продолжается.

9 Как гласит известная английская пословица: «Мужчины - те же мальчики, только игрушки у них другие [дорогие]».

© ООО "Компьютерра-Онлайн", 1997-2024
При цитировании и использовании любых материалов ссылка на "Компьютерру" обязательна.