Производственные процессы и объемы собираемых данных

Производственные процессы и объемы собираемых данных

Выпуск 3(6727) от 11 февраля 2021 г.
РУБРИКА: ПРОИЗВОДСТВЕННАЯ БАЗА

Может ли в процессе производства полупроводников и электроники быть слишком много данных? Ответ зависит от точки зрения. По оценкам, более 80% данных, собранных в цепочке поставок полупроводниковых приборов (от проектирования до производства и применения потребителем), никогда не используются – ​и тому есть причины.

К причинам, по которым подавляющая часть данных, собранных в цепочке поставок полупроводниковых приборов, никогда не используется, можно отнести следующие:

инженерно-технический персонал рассматривает только данные, необходимые для решения конкретной проблемы, а не все собранные данные. Это особенно важно в случаях отклонений параметров технологического процесса, потому что требуется быстро определить причину проблемы и устранить ее;

в случае стабильности полупроводниковых технологических процессов или зрелости выпускаемой продукции нет причин просматривать все данные;

контрактные обязательства, на которых настаивают поставщики автомобильной и военной электроники, требуют архивного хранения некоторых типов данных в течение 10–15 лет. При этом большая часть этих данных никогда после первоначального получения не используется.

Существуют также и менее веские причины игнорировать большую часть данных. Одна из них заключается в том, что данные были изменены или являются недостоверными («грязные данные»). Другая – ​в неотслеживаемости и отсутствии контекста, что может породить вопросы о происхождении источника данных. Наконец, объем данных может быть таким, что его попросту невозможно обработать. Мир ИС тонет в данных, а их количество продолжает расти.

Отмечается, что возраст около 90% доступных данных составляет менее двух лет. Это означает, что огромные массивы данных появились внезапно, чуть ли не в одночасье. Для того чтобы справиться с этим «информационным цунами», требуются изменения в методах и технологиях хранения, доступа и торговли данными.

IT-специалисты, занятые в производстве полупроводниковых приборов, наблюдают взрывообразный рост объема данных во всех секторах отрасли. Отрасль, с одной стороны, борется за управляемость этих данных, а с другой – ​стремится собрать как можно больше, потому что «это может быть полезно». При этом принцип осуществления операций контроля и метрологии смещается от отбора образцов к сплошным контролю и измерениям.

Наличие большого объема данных с точки зрения как широты, так и глубины охвата позволяет специалистам осуществлять более сложную статистическую аналитику. Она, в свою очередь, может быть использована для понимания необычных сигналов, получаемых при тестировании, что позволяет лучше балансировать аспекты качества, производительности и стоимости. Например, корпорация Qualcomm в 2019 г. смогла за счет применения передовых методов анализа данных снизить уровень ошибок в средствах виртуальной метрологии, что привело более чем к 10-кратному увеличению точности этих средств.

Сбор, хранение и объединение данных для анализа, когда емкость этих данных измеряется петабайтами, становится нетривиальной задачей. Все это осложняется еще несколькими факторами:

фрагментированность данных в экосистеме полупроводниковой промышленности из-за наличия подразделений компаний, функционирующих самостоятельно, без поддержки и вне зависимости от планов других подразделений;

несовершенство стратегий и решений для управления корпоративными данными как источником эффективности;

простое незнание и непонимание того, что ценно, а что нет.

Отслеживаемость (прослеживаемость) имеет решающее значение, когда речь заходит о понимании ценности данных. Это важно, например, при поиске источника поступления неисправных узлов и компонентов для оборудования. Необходимо иметь возможность структурировать данные и сформировать на их основе своего рода «карту», при помощи которой можно установить корреляцию между разными системами оборудования по определенному тестовому значению, получив тем самым представление о поведении оборудования и конечного продукта. Таким образом, есть много данных, пригодных для целей управления, но их наличие сопряжено с затратами на перемещение, очистку, структурирование и хранение. Помимо этого специалисты могут извлечь немало полезной информации и из «грязных» или несвязанных данных.


Глубина и широта охвата данных

Что стало причиной этого взрыва данных? Вопрос непростой. Начнем с того, что сегодня повсеместно используется все больше ИС и у каждой из них своя сложная история.

Микросхемы – ​основа многих товаров повседневного пользования. Они управляют Интернетом вещей и краевыми сетями, приводящими в действие заводы и города, контролируют режимы энергопотребления зданий и смартфонов. Но это само по себе не объясняет взрыв данных в области производства и тестирования. Большие кристаллы цифровых ИС, естественно, генерируют больше данных, однако методы сжатия тестовых данных за последние 20 лет существенно эволюционировали и позволяют справиться с этой проблемой. Так что эта проблема лишь малая часть другой, более крупной.

На рубеже тысячелетий производители ИС стали просить поставщиков оборудования предоставлять больше данных. Через два десятка лет, то есть сейчас, число используемых в оборудовании датчиков значительно увеличилось, они применяются практически везде и генерируют огромные объемы данных, что приводит к увеличению потока данных, а также последующим проблемам их хранения и извлечения.

Рассмотрим, например, трассировочные данные датчиков оборудования завода по обработке пластин (рис. 1). Для инструментальных средств литографии они дискретизируются с частотой до 50 кГц. При типичной частоте дискретизации 10 Гц и круглосуточном непрерывном режиме работы в среднем 500 инструментальных средств, обрабатывающих за квартал 100 тыс. пластин, суммарный объем полученных данных переходит в петабайтный диапазон. Хранение такого объема данных и управление ими становятся очень дорогими.



Источник: PDF Solutions

Рисунок 1. Структура данных, генерируемых за 1 минуту на заводе по обработке 300-мм пластин

* FOUP (front-opening unified pod) – унифицированный подвесной обтекаемый контейнер с загрузкой и выгрузкой пластин через фронтальную часть.

** EUV (extreme ultraviolet) – наиболее коротковолновая часть ультрафиолетовой области спектра. Длина волны излучения EUV-степперов – 13,5 нм.


Проверка (контроль) пластин вносит значительный вклад в общий объем данных. С целью выявления негодных пластин и кристаллов, которые могут повлиять на работу клиентских систем, заводы по обработке пластин перешли к 100%-ному контролю качества по нескольким уровням структур, отличающихся наибольшим риском с точки зрения надежности и подверженности различным воздействиям. Следствием перехода к 100%-ному контролю, обеспечиваемому технологией сканирования и увеличенным быстродействием, становится необходимость хранить большое количество изображений. Эти изображения могут быть использованы для анализа проблем и перекрестной корреляции с другими типами данных, такими как данные электроиспытаний.

Уже упомянутая корпорация Qualcomm в 2019 г. генерировала около 2 Тбайт данных, касающихся тестирования, в день. С тех пор объем тестовых данных увеличился – ​особенно он подскочил при переходе от 10-нм к 7-нм топологиям (рис. 2). Объем данных будет увеличиваться при переходе к каждому новому технологическому уровню с меньшими проектными нормами. Отчасти это связано с тем, что при масштабировании на пластине размещается большее число кристаллов ИС, а также с увеличением числа транзисторов на кристалле ИС, повышением сложности конструкции, бóльшим числом технологических углов, появлением новых процессов, тестов, диагностических методов и усложнением операций сборки и корпусирования.



Источник: Qualcomm

Рисунок 2. Динамика увеличения совокупного объема тестовых данных, генерируемых при производстве ИС, в период 2009–2021 гг. (Гбайт/пластина)


Генерация данных увеличивается при использовании в рамках тестирования операций с плавающей запятой. Специалисты GlobalFoundries подтверждают информацию корпорации Qualcomm относительно скачкообразного увеличения объема данных. Так, в 2012 г. объем результатов тестирования каждой пластины составлял сотни мегабайт. Теперь же данные по пластинам, обрабатываемым для некоторых клиентов, «весят» от 15 до 16 Гбайт, что составляет до 1/4 Тбайт на партию из 25 пластин. Объемы данных просто огромны, особенно для совершенно новых кристаллов ИС.

Отчасти такой быстрый рост связан с необходимостью объединения технических данных с показателями хода производственного процесса (технологическими показателями). Например, GlobalFoundries перешла от глубоких данных, определяющих характеристики крупносерийного производства только на технологическом уровне, к интеграции этих данных в технологический маршрут от начала до завершения процесса обработки пластин. Этот переход проходил поэтапно.

Для изучения вопроса выхода годных важно обладать соответствующими данными. Объем данных при переходе от конструкций, реализованных по 22-нм проектным нормам без использования FinFET, к 14-нм FinFET-конструкциям резко увеличился, вследствие чего и понадобилось перенести программы тестирования технических характеристик в производственные среды тестирования. Останов при первом отказе, используемый в производственных средах тестирования, ограничивает для групп разработки возможность учиться повышать выход годных. Напротив, введение программ определения технических характеристик на производственном уровне позволяет собирать данные о негодных кристаллах и определять, какие из их частей выходят из строя, а какие остаются работоспособными.


Проблемы использования данных

В данный момент, по данным фирмы PDF Solutions, несмотря на повышение уровня автоматизации, анализируются не все собираемые данные. До 85% всех собранных данных остаются «темными», т. е. никогда не используемыми в анализе, но все равно хранящимися.

Вся надежда на то, что по мере дальнейшего развития технологий обработки данных удастся вычленить из этого массива полезную информацию или проследить определенные закономерности. С этой целью специалисты GlobalFoundries начали передавать в «облако» большие объемы аналитических данных и данных, требующих анализа, – ​более 3 Тбайт ежедневно. Пока из всего этого количества для анализа используется (на ранних стадиях проекта) около 20%, но предполагается, что через год-два, при расширении возможностей соответствующих инструментальных средств, объем используемых при анализе данных удастся нарастить.

Для понимания смысла крупных и сложных производственных процессов более не имеет смысла анализировать данные без контекста и отслеживаемости. Современные аналитические инструментальные средства способны обрабатывать сложные структуры данных, охватывающие производственные метаданные, – ​это делается для выявления условий, при которых были собраны данные, а также их генеалогии и воздействия на них производственного оборудования.

Эта задача чрезвычайно сложна. Изучение и анализ данных, собранных в разные моменты времени, требует согласованных усилий по сохранению и исправлению важных метаданных – ​этим и объясняется то, что просмотреть удается всего лишь примерно пятую часть.

Специалисты корпорации Synopsys отмечают, что ранее данные просто анализировались, а затем загружались в базу данных в качестве исходных. Сегодня этого недостаточно, потому что тестовое оборудование (операционные изменения) в процессе производства оказывает влияние на понимание данных. Например, аналитика может осуществляться для выявления корреляций между финальным тестированием и сортировкой пластин в период возникновения операционных изменений. Получить такие данные можно, но хранить их очень трудно. Как бы то ни было, получение максимального объема данных далеко не всегда бывает полезным – ​в случае если необходимые данные отсутствуют или оказываются неверны из-за прерывания или повреждения.

Специалисты корпорации Texas Instruments поднимают еще одну проблему – ​вопрос качества информации, возможности обеспечить ее точность и полноту. Файлы тестовых данных увеличиваются в размерах, но при этом для хранения используются старые форматы, которые не отвечают всем современным требованиям.

Для решения проблемы качества данных требуется также решить вопрос их согласования. Помочь в этом может целенаправленная работа со стандартами оборудования заводов по обработке пластин, линий сборки и тестирования. Сегодня специалистам приходится иметь дело с несовместимыми системами данных, использующими проприетарные (фирменные) или специализированные форматы. Заинтересованные компании проводят большую работу по интеграции этих систем, что позволит лучше их совмещать, а также существенно повысит ценность данных.


Объединение данных

Несмотря на все проблемы, связанные с управлением данными, полупроводниковые компании по всей цепочке поставок считают перспективным объединение данных из нескольких источников для принятия производственных решений. В ряде случаев для этого требуется вдумчиво подходить к выбору правильных данных – ​в особенности это касается внутрикристальной схемотехники. Взрывообразный рост данных порождает необходимость вдумчиво подходить к каждому конкретному случаю. Задача состоит в том, чтобы найти правильные точки данных, имеющие отношение к выбранному варианту использования, и найти корреляцию между этими точками данных и другими несвязанными типами данных.

Подобную подготовительную работу при проектировании сложной ИС следует проводить заранее, при этом знание предметной области часто оказывается большим плюсом. Инженеры должны «держать руку на пульсе» в отношении всех данных, генерируемых в процессе производства. Это особенно важно для получения полной отдачи от интеллектуальных производств и Четвертой промышленной революции в целом. Аналитические модели, основанные на статистике, требуют крупных объемов данных из нескольких источников – ​для прогнозирования с уточнением, которое помогает сбалансировать качество производственного тестирования. Кроме того, для обеспечения решений в рамках краевых вычислений или локальных решений на уровне предприятия большую ценность могут представлять данные, полученные в разные моменты времени (желательно, чтобы отрезок времени был максимально длительным).

Многие производители оборудования стремятся представлять данные на уровне инструментальных средств и разрабатывают для этого соответствующие платформы. Проблема в том, что отрасль не нуждается в использовании каждым поставщиком собственной платформы с собственными методами сбора данных.

Отраслевые специалисты также отмечают, что процессы сбора, сортировки и структурирования данных в последовательном и содержательном виде несколько разладились, когда производители оборудования начали встраивать в него разнообразные датчики. Отчасти это объясняется тем, что никто не рассматривал возможность использования этих данных для крупномасштабного статистического анализа или машинного обучения.

При этом полупроводниковая промышленность вплотную подошла к границе способности методов и средств машинного обучения отслеживать мельчайшие изменения в структурах по петабайтным наборам данных, и наличие обширной базы не обязательно оказывается признаком прогресса – ​эти данные могут быть неинформативны или не обладать правильным разрешением. По мнению отраслевых специалистов, есть серьезные причины не пытаться обработать все собранные данные, включая накопленные за предыдущие 15 и более лет. Иногда данных действительно бывает слишком много.


Meixner Anne. Too Much Fab and Test Data, Low Utilization. Semiconductor Engineering, January 12, 2021: https://semiengineering.com/too-much-fab-and-test-data-low-utilization/


ЧИТАЙТЕ ТАКЖЕ

Выпуск 24/25 (6748/6749) от 23 декабря 2021 г. г.
Выпуск 23(6747) от 25 ноября 2021 г. г.