banner

Blog

Sep 21, 2023

Menschlich

Nature Band 616, Seiten 707–711 (2023)Diesen Artikel zitieren

27.000 Zugriffe

2 Zitate

523 Altmetrisch

Details zu den Metriken

Einer der Engpässe beim Bau von Halbleiterchips sind die steigenden Kosten für die Entwicklung chemischer Plasmaprozesse, die die Transistoren und Speicherzellen bilden1,2. Diese Prozesse werden immer noch manuell von hochqualifizierten Ingenieuren entwickelt, die nach einer Kombination von Werkzeugparametern suchen, die ein akzeptables Ergebnis auf dem Siliziumwafer liefert3. Die Herausforderung für Computeralgorithmen besteht in der begrenzten Verfügbarkeit experimenteller Daten aufgrund der hohen Anschaffungskosten, was es schwierig macht, ein Vorhersagemodell mit Genauigkeit auf atomarer Ebene zu erstellen. Hier untersuchen wir Bayes'sche Optimierungsalgorithmen, um zu untersuchen, wie künstliche Intelligenz (KI) die Kosten für die Entwicklung komplexer Halbleiterchipprozesse senken könnte. Insbesondere erstellen wir ein kontrolliertes virtuelles Prozessspiel, um die Leistung von Menschen und Computern bei der Gestaltung eines Halbleiterfertigungsprozesses systematisch zu vergleichen. Wir stellen fest, dass menschliche Ingenieure in den frühen Entwicklungsstadien hervorragende Leistungen erbringen, wohingegen die Algorithmen in der Nähe der engen Toleranzen des Ziels weitaus kosteneffizienter sind. Darüber hinaus zeigen wir, dass eine Strategie, bei der sowohl menschliche Designer mit hohem Fachwissen als auch Algorithmen in einer Mensch-zuerst-Computer-zuletzt-Strategie zum Einsatz kommen, die Cost-to-Target im Vergleich zu nur menschlichen Designern um die Hälfte reduzieren kann. Abschließend beleuchten wir kulturelle Herausforderungen bei der Zusammenarbeit von Menschen und Computern, die bei der Einführung künstlicher Intelligenz bei der Entwicklung von Halbleiterprozessen angegangen werden müssen.

Halbleiterchips sind das Herzstück jedes künstlichen Intelligenzsystems (KI) auf der Welt und arbeiten mit digitalen 0- und 1-Zuständen, die durch nanometergroße Transistor- und Speicherzellen definiert werden. Die Herstellung dieser Miniaturgeräte auf Siliziumwafern ist ein komplizierter Herstellungsprozess, der Hunderte spezialisierter Prozessschritte umfasst, von denen fast die Hälfte komplexe chemische Plasmaprozesse wie Ätzen und Abscheiden erfordert3. Ironischerweise wird die Entwicklung dieser entscheidenden Prozesse, die KI ermöglichen, immer noch von menschlichen Prozessingenieuren durchgeführt, die ihre Intuition und Erfahrung nutzen und dabei oft auf Versuch und Irrtum zurückgreifen. Die Anwendung von KI in der Verfahrenstechnik zur Herstellung neuer Chips ist von allgemeinem Interesse, da die Automatisierung dieser Aktivität Szenarien der sogenannten „Singularität“ hervorrufen könnte, bei der KI effektiv lernt, mehr aus sich selbst zu bauen4,5.

KI verfügt über viele Beispiele dafür, dass Computeralgorithmen den Menschen bei komplexen Aufgaben übertreffen, beispielsweise beim Spielen von Brettspielen wie Schach und Go6,7. Allerdings trifft der Computer in diesen Fällen Entscheidungen erst, nachdem er eine große Menge kostengünstiger Daten trainiert oder generiert hat. Im Gegensatz dazu ist das Sammeln von Prozessdaten auf Siliziumwafern teuer: mehr als tausend Dollar pro Experiment für den Wafer, den Betrieb der Plasmaausrüstung und die Elektronenmikroskopie. Folglich entwickeln Ingenieure in der Regel Halbleiterprozesse, indem sie nur etwa hundert – von potenziell vielen Billionen – verschiedener Kombinationen von Plasmaparametern wie Druck, Leistung, reaktive Gasströme und Wafertemperatur testen. Im Gegensatz zu Brettspielen, die klare Regeln haben, unterliegen Wafer-Reaktor-Systeme einer unschätzbaren Anzahl mikroskopischer physikalischer und chemischer Wechselwirkungen zwischen Wafer-Material, Plasmaspezies und Reaktorteilen8,9. Das Fehlen ausreichender Daten in einer bestimmten Region von Interesse erschwert die Erstellung von Computermodellen mit atomarer Genauigkeit, was als „kleines“ Datenproblem bezeichnet wird10. Daher besteht die Herausforderung, die wir für die KI darstellen, darin, die Kosten für die Entwicklung eines Halbleiterprozesses im Vergleich zu einem erfahrenen menschlichen Prozessingenieur zu reduzieren (d. h. die Anzahl der zu sammelnden Daten zu minimieren).

In dieser Arbeit haben wir die Leistung von Computeralgorithmen im Vergleich zu erfahrenen menschlichen Prozessingenieuren verglichen und uns dabei auf ein Szenario konzentriert, in dem ein ungeschulter Computer nur Zugriff auf die gesammelten Daten hat. Inspiriert von KI-Ansätzen im Schach, bei denen Computeragenten gegen Menschen antreten, haben wir ein verfahrenstechnisches Spiel entwickelt, bei dem das Ziel eines Spielers – Mensch oder Computeralgorithmus – darin besteht, einen komplexen Prozess mit den niedrigsten Zielkosten zu entwickeln. Die Durchführung eines solchen Wettbewerbs mit echten Wafern wäre teuer und unpraktisch, da unkontrollierte Schwankungen durch eingehende Wafer, Messtechnik und Verarbeitungsgeräte auftreten, die die Interpretation der Ergebnisse erschweren würden. Um diese praktischen Schwierigkeiten zu überwinden, haben wir den Wettbewerb auf einer hochentwickelten virtuellen Plattform durchgeführt, die ein Benchmarking der Teilnehmer im selben Prozessraum ermöglicht.

Der Wettbewerb wurde in einer virtuellen Umgebung durchgeführt, die einem Labor ähnelte, wie in Abb. 1 schematisch dargestellt. Unser Fallstudienprozess ist eine einstufige Plasmaätzung eines Lochs mit hohem Aspektverhältnis in einem Siliziumdioxidfilm, einem der Viele Ätzschritte werden zur Herstellung von Halbleiterchips verwendet11. Die Simulation dieses Prozesses wurde anhand vorhandener Daten in einem proprietären Feature-Profil-Simulator parametrisiert und kalibriert. Dabei wurden physikbasierte und empirische Beziehungen verwendet, um ein „Rezept“ einer eingegebenen Werkzeugparameterkombination mit einem ausgegebenen Ätzergebnis auf dem virtuellen Wafer zu verbinden (Methoden). Für den Teilnehmer dient dieser Simulator als effektive Blackbox9-Umsetzung eines Rezepts (z. B. Druck, Leistung und Temperatur) auf die Anforderungen eines Prozessschritts, der zur Herstellung eines Halbleiterchips erforderlich ist.

Der Input des virtuellen Prozesses ist ein „Rezept“, das die Plasmawechselwirkungen mit einem Siliziumwafer steuert. Für ein bestimmtes Rezept gibt der Simulator Metriken zusammen mit einem Querschnittbild eines Profils auf dem Wafer aus. Das Zielprofil wird zusammen mit Beispielen anderer Profile angezeigt, die die Zielvorgabe nicht erfüllen. Ziel des Spiels ist es, ein passendes Rezept mit den geringsten Cost-to-Target zu finden. CD, kritische Dimension.

Wie im Labor besteht das Ziel des Spiels darin, die Kosten für die Erreichung des Ziels zu minimieren, wenn ein Rezept gefunden wird, das Ausgabemetriken liefert, die dem Ziel entsprechen. Der Teilnehmer reicht eine Charge (ein oder mehrere Rezepte) ein und erhält Ausgabemetriken und Querschnittsprofilbilder. Der Teilnehmer reicht weiterhin Chargen ein, bis das Ziel erreicht ist, wie in der erweiterten Datentabelle 1 definiert, entsprechend dem in Abb. 1 gezeigten Profil. Wir definieren eine „Trajektorie“ als eine Reihe von Chargen, die durchgeführt werden, um das Ziel zu erreichen. Basierend auf den tatsächlichen Kosten berechnen wir Kosten von 1.000 US-Dollar pro Rezept für Wafer- und Messkosten und Gemeinkosten von 1.000 US-Dollar pro Charge für den Werkzeugbetrieb. Aufgrund des hohen Entartungsgrads im Eingabeparameterraum gibt es viele potenziell erfolgreiche Rezepte. Dennoch haben wir zu Beginn festgestellt, dass die Wahrscheinlichkeit, dass das Ziel zufällig erreicht wird, gering ist: 0,003 % pro Rezept, basierend auf 35.000 Zufallsstichproben.

Der Maßstab für Cost-to-Target wurde von menschlichen Akteuren bestimmt. Zu den Freiwilligen gehörten sechs professionelle Verfahrensingenieure mit einem Doktortitel in den Naturwissenschaften: drei leitende Ingenieure mit mehr als sieben Jahren Erfahrung und drei junge Ingenieure mit weniger als einem Jahr Erfahrung. Die Ingenieure entwarfen ihre Experimente mithilfe mechanistischer Hypothesen, die auf ihrem Vorwissen über Prozesstrends und Plasmaparameterabhängigkeiten basierten. Sie wählten eine durchschnittliche Chargengröße von vier Rezepten und verwendeten bei 95 % aller Rezeptauswahlen univariate oder bivariate Parameteränderungen. Als Referenz nahmen auch drei unerfahrene Personen ohne relevante Prozesserfahrung teil.

Die Flugbahnen der Verfahrenstechniker sind in Abb. 2 dargestellt (siehe Erweiterte Daten Abb. 1 für unerfahrene Menschen und Erweiterte Daten Tabelle 2 für eine Liste der Ergebnisse). Ihre Flugbahnen zeigen qualitativ ähnliche Pfade mit schrittweisem Fortschritt in Richtung des Ziels, die wir in zwei Phasen charakterisieren: Grobabstimmung und Feinabstimmung. Die grobe Abstimmung bezieht sich auf die anfängliche schnelle Verbesserung in Richtung des Ziels, während sich die Feinabstimmung auf den langsamen Fortschritt am hinteren Ende der Flugbahn bezieht, bei dem die Ingenieure Schwierigkeiten hatten, alle Leistungskennzahlen gleichzeitig zu erfüllen. Die leitenden Ingenieure benötigten für den gleichen Fortschritt etwa die Hälfte der Kosten der jüngeren Ingenieure. Der Gewinner ist der leitende Ingenieur Nr. 1 mit einem Cost-to-Target von 105.000 US-Dollar, wie im Einschub von Abb. 2 dargestellt. Dies ist unser menschlicher „Experten“-Benchmark.

Die Trajektorien werden vom Progress Tracker überwacht, wie in Methoden definiert. Das Ziel ist erreicht, wenn der Progress Tracker 0 ist. Die Flugbahnen der leitenden Ingenieure sind grün und die der jüngeren Ingenieure blau. Die Flugbahn des siegreichen Experten (leitender Ingenieur 1) ist im Einschub hervorgehoben und zeigt die in der HF-CL-Strategie verwendeten Transferpunkte A bis E. AU, beliebige Einheiten.

Quelldaten

Die an diesem Wettbewerb teilnehmenden Computeralgorithmen sind Bayes'sche Optimierungen – eine häufig verwendete Methode des maschinellen Lernens für teure Black-Box-Funktionen12,13,14. Diese Klasse von Algorithmen wurde für andere Anwendungen in der Halbleiterindustrie untersucht15,16,17. Drei verschiedene Arten von Bayes'schen Optimierungen wurden ausgewählt: (1) Algo1 unter Verwendung der Markov-Ketten-Monte-Carlo-Stichprobe18, ein multivariates lineares Ersatzmodell zum Ausgleich der hohen Rechenkosten der Stichprobe und eine erwartete Verbesserungsfunktion (EI). (2) Algo2 aus einer Open-Source-Software unter Verwendung des baumstrukturierten Parzen Estimator mit einer EI-Erfassungsfunktion19,20. (3) Algo3 unter Verwendung eines Gaußschen Prozessmodells21 und einer Erfassungsfunktion mit niedrigerer Konfidenzgrenze. Alle Algorithmen verwenden die skalierte euklidische Distanz als Zielfunktion und starteten ohne jegliche Schulung und unter Verwendung nicht informativer Priors22.

Die Algorithmen waren so programmiert, dass sie zwar Ausgabemetriken, aber keine Profilbilder verwendeten, sodass diese praktisch ignoriert wurden. Es wurde nur ein Rezept pro Charge verwendet, die Standardeinstellung für Bayes'sche Optimierungen23. Aus Gründen der statistischen Relevanz wurden die Trajektorien 100 Mal wiederholt, um die inhärente Zufälligkeit der Zielkosten aufgrund der probabilistischen Natur der Bayes'schen Optimierung zu berücksichtigen. Um Rechenzeit zu sparen, wurden die Trajektorien gekürzt, wenn sie das Ziel nicht vor dem Experten-Benchmark von 105.000 US-Dollar erreichten. Wir definieren „Erfolgsquote“ als den Prozentsatz der Trajektorien mit geringeren Zielkosten als der Experte. Als Referenz: Die Erfolgsquote allein aufgrund des reinen Zufalls wird auf weniger als 0,2 % geschätzt (basierend auf der zuvor erwähnten Wahrscheinlichkeit von 0,003 % pro Rezept).

Die Algorithmen begannen jede Flugbahn mit einem zufällig generierten 32-Rezept-Seed aus einem lateinischen Hyperwürfel, bevor sie das einzelne Rezept pro Stapel generierten. Die Ergebnisse werden in den Feldern von Abb. 3 mit „kein Mensch“ gekennzeichnet. Die Erfolgsraten sind niedrig, weniger als 1 % für Algo1, 2 % für Algo2 und 11 % für Algo3. Insgesamt schlugen nur 13 von 300 (weniger als 5 %) Versuchen den Experten. Als Referenz haben wir eine Algo2-Trajektorie über die Kürzungsgrenze hinaus zugelassen und schließlich das Ziel bei 739.000 US-Dollar erreicht, was fast eine Größenordnung teurer ist als der Experte. Insgesamt ist es den Algorithmen allein nicht gelungen, den Wettbewerb gegen den menschlichen Experten zu gewinnen.

a–c, Ergebnisse für drei Algorithmen: Algo1 (a), Algo2 (b) und Algo3 (c). Die „kein Mensch“-Ergebnisse basieren auf der Hilfe von Menschen als Referenz. Die Spalten A bis E sind die in Abb. 2 dargestellten Transferpunkte. Jeder Punkt repräsentiert eine von 100 unabhängigen Trajektorien. Die Zielkosten sind die Summe der Kosten, die sowohl vom menschlichen als auch vom Computeralgorithmus verursacht werden. Orangefarbene Linien zeigen die mittleren Kosten bis zum Ziel an; Die oben ausgerichteten Punkte übersteigen allein die Cost-to-Target des Experten (105.000 US-Dollar); Schwarze horizontale Linien stellen die Kosten für die vom Menschen bereitgestellten Daten dar.

Quelldaten

Wir schlugen vor, dass die Algorithmen versagten, weil sie Experimente verschwendeten, bei denen sie sich ohne Vorkenntnisse durch den riesigen Prozessraum navigieren mussten. Im Gegensatz dazu vermuteten wir, dass Prozessingenieure bei ihrer anfänglichen Navigation auf ihre Erfahrung und Intuition zurückgriffen, um bessere Entscheidungen zu treffen. Aus diesem Grund haben wir uns entschieden, eine Hybridstrategie zu testen, bei der der Experte die Algorithmen in einem HF-CL-Szenario (Mensch zuerst – Computer zuletzt) ​​steuert. In dieser Implementierung stellt der Experte anstelle einer Zufallsstichprobe experimentelle Daten bereit, die bis zu einem mit A bis E in Abb. 2 gekennzeichneten Übertragungspunkt gesammelt wurden (ebenfalls in der erweiterten Datentabelle 3 definiert), zusammen mit dem vom Experten eingeschränkten Suchbereich (erweiterte Datentabelle). 4). Als Referenz: Die Erfolgsquote beim Finden des Ziels in diesem „eingeschränkten“ Suchbereich wird auf 13 % geschätzt, basierend auf einer Wahrscheinlichkeit von 0,27 % pro Rezept, das Ziel bei 2.700 Zufallsstichproben zu erreichen. Sobald bei der HF-CL-Strategie der Computer die Entscheidungsfindung übernimmt, gibt der Experte praktisch die Kontrolle ab und hat keine weitere Rolle bei der Versuchsplanung. Wie zuvor wurde aus Gründen der statistischen Relevanz jede Bedingung 100 Mal wiederholt.

Bei der HF-CL-Strategie stellt der Übertragungspunkt A die geringste Datenmenge vom Experten zum Computeralgorithmus bereit. Zu diesem Zeitpunkt sind die mittleren Zielkosten für HF-CL immer noch durchweg höher als für den Experten allein, mit einer Erfolgsquote von nur 20 % für Algo1, 43 % für Algo2 und 42 % für Algo3. Obwohl diese Werte wesentlich höher sind als die rein computergestützten Ergebnisse, deuten Erfolgsquoten von weniger als 50 % darauf hin, dass die Kosten eher steigen als sinken werden. Obwohl einige anfängliche Hinweise die Leistung des Computeralgorithmus verbessert haben, schlägt HF-CL statistisch gesehen bei Punkt A fehl.

Abbildung 3 zeigt HF-CL-Ergebnisse mit zunehmend mehr Daten, die dem Computeralgorithmus zur Verfügung gestellt werden. Wir beobachten eine V-förmige Abhängigkeit der Cost-to-Target von der Menge der Expertendaten. Von Punkt A bis C reduziert der Zugriff auf mehr Expertendaten die Gesamtkosten für die Zielerreichung, da sich die Leistung des Algorithmus verbessert. Der Trend kehrt sich jedoch ab Punkt C um, wo der Zugriff auf mehr Expertendaten die Kosten erhöht, ohne dass der Algorithmus einen klaren Nutzen hat. Die optimale Leistung von HF-CL für alle Algorithmen liegt bei Punkt C. Algo3 übertrifft die anderen Algorithmen deutlich, was entweder auf die Flexibilität der Gaußschen Prozessmodelle oder seine unterschiedliche Erfassungsfunktion zurückzuführen ist, da gezeigt wurde, dass der Algorithmus mit der unteren Vertrauensgrenze den EI übertrifft Funktion23. HF-CL mit Algo3 setzt neue Maßstäbe mit einem durchschnittlichen Cost-to-Target von 52.000 US-Dollar – knapp der Hälfte der Kosten, die allein der Experte verlangt.

Somit hat die HF-CL-Strategie unter Verwendung des Experten in Zusammenarbeit mit Algo3 das Spiel gewonnen, indem sie die Zielkosten für die Entwicklung des Plasmaätzprozesses im Vergleich zum Experten-Benchmark zuverlässig reduziert hat. (Siehe Extended Data Abb. 2 und 3 für HF-CL-Ergebnisse mit anderen Menschen und Extended Data Abb. 4 für HF-CL-Ergebnisse ohne den eingeschränkten Bereich.)

Die virtuelle Prozessumgebung bietet die Möglichkeit, verschiedene Ansätze zur Prozessentwicklung in der Halbleiterindustrie zu testen, eine Aktivität, die im realen Labor unerschwinglich kostspielig gewesen wäre. Die Leistung von Menschen über verschiedene Qualifikationsniveaus hinweg – vom Experten bis zum Anfänger – liefert qualitative Vergleichspunkte für denselben Prozess. Die Ergebnisse zeigen, dass leitende Verfahrensingenieure Prozesse zu etwa halb so hohen Zielkosten entwickeln wie jüngere Verfahrensingenieure, was die Bedeutung von Fachwissen in unserer Branche verdeutlicht. Die Computeralgorithmen, denen jegliches vorheriges Training fehlte, zeigten im Vergleich zum Experten eine schlechte Leistung: Weniger als 5 % aller ihrer Trajektorien erreichten das Ziel bei geringeren Kosten für das Ziel. Dies bestätigt unsere anfängliche Erwartung, dass Computer, die bei Null anfangen, scheitern werden – sie können das Ziel erreichen, aber zu hohen Kosten. Dies ist das kleine Datenproblem, das sich manifestiert. Wir können uns einfach nicht die Datenmenge leisten, die ein Computer benötigt, um ein Prozessrezept genau vorherzusagen.

Ein zentrales Ergebnis dieser Studie ist der Erfolg der HF-CL-Strategie. Diese Strategie beruht darauf, dass ein Experte zu Beginn der Prozessentwicklung im Vorteil ist und der Computeralgorithmus in der späteren Phase überragend ist. Durch die Kombination dieser Vorteile konnte gezeigt werden, dass HF-CL die Cost-to-Target im Vergleich zum Experten allein um die Hälfte reduziert. Der Vorteil des menschlichen Experten wird auf die Bedeutung des Domänenwissens zurückgeführt, das diesen Algorithmen fehlte, um die scheinbar grenzenlosen Möglichkeiten der Rezeptauswahl qualitativ zu steuern. Es mag intuitiv sein, dass menschliche Führung Computern hilft, aber wenn Algorithmen besser in der Lage sind, sehr große, komplexe Probleme zu bewältigen, hätten sie vermutlich zu Beginn der Entwicklung dominieren können24. Stattdessen wurden die Computeralgorithmen erst kompetent, nachdem relevante Daten bereitgestellt wurden, und zwar vorzugsweise auch mit einer eingeschränkten Reichweite. Das Prinzip von HF-CL erinnert an frühe Bemühungen zu anderen KI-Problemen, was darauf hindeutet, dass es auf andere kleine Datenprobleme verallgemeinert werden könnte. Beispielsweise wurde zu Beginn des Computerschachs (vor Big Data) das erste Programm im Jahr 1951 nur für die letzten beiden Züge eingesetzt, während die Eröffnungszüge weitgehend mit denen identisch blieben, die von Menschen bestimmt wurden6. Auch bei der Proteinfaltung erfordert die mit dem Nobelpreis ausgezeichnete Technik der gerichteten Evolution einen „geeigneten Ausgangspunkt“, der vom Menschen bereitgestellt wird25.

Obwohl HF-CL im Nachhinein offensichtlich erscheinen mag, zeigen die Ergebnisse, dass es nur unter bestimmten Umständen funktioniert. Auch wenn es den Vorteil hat, mit einem erfahrenen Ingenieur zusammenzuarbeiten, hängt der Erfolg von HF-CL auch stark davon ab, wann der Mensch auf den Computer übergeht: Wenn es zu früh ist, verfügen die Algorithmen nicht über ausreichende Anleitung; kommt es zu spät, wird der Mensch zur Kostenlast. Dieses Prinzip ist in der konvexen V-förmigen Kosten-Ziel-Abhängigkeit von weiteren Expertendaten in Abb. 3 verkörpert. Unsere Interpretation der V-Form ist, dass die Tiefe die maximale Kosteneinsparung im Vergleich zum Experten darstellt, während der Scheitelpunkt die maximale Kosteneinsparung im Vergleich zum Experten darstellt optimaler Übergangspunkt vom Menschen zum Computer. Die linke Seite des V entspricht einer verbesserten Leistung der Algorithmen mit mehr Daten. Dieser Teil des V steht im Einklang mit zuvor gemeldeten Beobachtungen und der allgemeinen Annahme, dass mehr Daten besser sind10.

Der ungewöhnlichere und bemerkenswertere Teil des V ist die rechte Seite. Hier steigen die Cost-to-Target, auch wenn die Algorithmen Zugriff auf mehr Expertendaten erhalten. Hier haben die hohen Datenkosten zu einem Kostennachteil für schlechte Rezeptauswahl durch den Menschen geführt, was die Bedeutung der Datenqualität verdeutlicht. Der Wert der Intuition hat selbst für unseren erfahrenen leitenden Ingenieur deutlich abgenommen, sodass die Computeralgorithmen statistisch gesehen kompetenter bei der Auswahl von Rezepten werden können. Die Überschneidung des umgekehrten Regimes mit der Feinabstimmungsphase legt nahe, dass diese Phase besser den Computeralgorithmen zugeordnet werden sollte. Die Beobachtung des V-förmigen Phänomens für verschiedene Mensch-Computer-Kombinationen bestärkt uns in der Überzeugung, dass unsere Erkenntnisse trotz der relativ geringen Anzahl von Testfällen auf dieses kleine Datenproblem übertragbar sind. Darüber hinaus glauben wir, dass das V-Kurven-Phänomen eine natürliche Folge des Versuchs ist, die Kosten im Rahmen teurer Daten und enger Toleranzen zu minimieren – wie es bei vielen Herstellungsprozessen der Fall ist – wenn der Bedarf an mehr Daten direkt mit den Kosten konkurriert diese Daten zu erhalten.

Damit die Industrie die Lehren aus der HF-CL-Strategie auf reale Halbleiterprozesse umsetzen kann, ist es wichtig zu verstehen, wie sich die Erkenntnisse auf andere Prozesse übertragen lassen und wann der Mensch die Kontrolle abgeben sollte – nämlich wie man den idealen Übergangspunkt identifiziert Zeit. Wir haben gezeigt, dass die Kosteneinsparungen von der spezifischen Mensch-Algorithmus-Kombination abhängen (Abb. 3 und Extended Data Abb. 2 und 3). Darüber hinaus gehen wir davon aus, dass die rechte Seite des V möglicherweise nicht sichtbar ist, wenn die Ziele gelockert werden, oder dass sie umgekehrt in Prozessen dominiert, die nur neu abgestimmt werden müssen, wie z. B. bei der Kammeranpassung (oder der Übertragung eines Prozesses auf ein anderes Werkzeug). Menschliches Wissen kann in einem hochdimensionalen Erkundungsraum besonders wichtig sein und die Übertragung auf den Computer effektiv verzögern. Weitere Faktoren, die sich auf den Übergabepunkt auswirken können, sind Prozessgeräusche, Prozessdrift, Zieltoleranz, Losgröße, eingeschränkter Bereich und Kostenstruktur. Wir müssen noch viel lernen. Diese Themen eignen sich gut für eine weitere systematische Untersuchung der virtuellen Prozessplattform.

Über die technischen Herausforderungen hinaus wird es wahrscheinlich auch kulturelle Herausforderungen bei der Zusammenarbeit von Menschen und Computern geben26,27. In unserer Studie haben wir festgestellt, dass das Verhalten von Computern nicht mit der Art und Weise übereinstimmt, wie Prozessingenieure normalerweise Prozesse entwickeln. (1) Die Ingenieure verwendeten fast ausschließlich univariate und bivariate Parameteränderungen, um ihren Versuchsaufbau zu rationalisieren, während die Computer ohne jede Erklärung multivariate Parameteränderungen verwendeten. Für Menschen kann es schwierig sein, Rezepte zu akzeptieren, die sie nicht verstehen. (2) Die Ingenieure forderten durchschnittlich vier Experimente pro Charge, während die Computer auf nur ein Experiment pro Charge beschränkt waren – was im Labor wahrscheinlich als ineffizient angesehen wird. (3) Die Ingenieure kamen dem Ziel stetig näher (Abb. 2), während die Computer explorative Rezeptauswahlstrategien verwendeten, die aufopferungsvoll zu sein scheinen (Erweiterte Daten, Abb. 5). Kontraintuitive und emotionslose Bewegungen sind beim Spielen von Computern gut dokumentiert28. Im Labor müssen sich Verfahrenstechniker dagegen wehren, einzugreifen und unbeabsichtigt die Kosten in die Höhe zu treiben – ohne Erfolgsgarantie. Letztendlich wird das Vertrauen in Computeralgorithmen eine Veränderung der jahrzehntelangen kulturellen Erwartungen in der Verfahrenstechnik bedeuten. Wir hoffen, dass die virtuelle Umgebung Verfahrensingenieuren dabei hilft, besser zu verstehen, wie sie bei der Entwicklung von Prozesstechnologien mit Computern zusammenarbeiten können.

Die Anwendung von KI in der Verfahrenstechnik steckt noch in den Kinderschuhen. Menschliches Fachwissen wird auf absehbare Zeit weiterhin von entscheidender Bedeutung sein, da Domänenkenntnisse für die Steuerung der frühen Phasen der Prozessentwicklung unverzichtbar bleiben. Doch der Erfolg der HF-CL-Strategie zeigt uns, dass Menschen, wie in früheren Automatisierungsanwendungen, bald von den mühsamen Aspekten der Prozessentwicklung entlastet werden. Zukünftig könnte die Fähigkeit von Computeralgorithmen verbessert werden, indem Domänenwissen (entweder explizit oder indirekt) in die Algorithmen kodiert wird, um frühere Übertragungspunkte zu ermöglichen. Es gibt umfangreiche Literatur zum Domänentransferlernen, in der Daten aus ähnlichen, aber nicht identischen Domänen genutzt werden können, um das Lernen in neuen Domänen zu beschleunigen29. Ein weiteres Interessengebiet im KI-Bereich ist das Einprägen von Domänenwissen in Form einer früheren Überzeugung23,30. Tatsächlich könnte das Erstellen oder Erlernen eines guten Priors als Konkurrenz zur hier untersuchten HF-CL-Strategie angesehen werden. Weitere mögliche Ansätze in der Literatur umfassen die Einbeziehung mechanistischer physikalischer Modelle10. In jedem Fall bedeuten die hochgradig nichtlinearen und komplexen Beziehungen zwischen Eingabe- und Ausgabeparametern, dass mehr Daten benötigt werden, um jedes frühere Modell in der Nähe des Ziels zu aktualisieren, in dem Wechselwirkungen höherer Ordnung im Vordergrund stehen. Der ständige Bedarf an mehr Daten in bestimmten interessierenden Bereichen garantiert praktisch, dass die Verfahrenstechnik auch mit Hilfe von Computeralgorithmen weiterhin für das kleine Datenproblem anfällig bleibt.

Zusammenfassend lässt sich sagen, dass Computeralgorithmen zwar allein einen Prozess unter Verwendung großer Datenmengen unabhängig entwickeln könnten, dies jedoch nicht zu geringeren Zielkosten als der menschliche Maßstab. Nur wenn die Algorithmen mit einem Experten zusammenarbeiteten, der sie zu einem vielversprechenden Regime führte, könnten sie erfolgreich sein. Die Ergebnisse dieser Studie weisen auf einen Weg zur erheblichen Reduzierung der Cost-to-Target durch die Kombination der Vorteile von Mensch und Computer hin. Dieser unkonventionelle Ansatz der Verfahrenstechnik erfordert Änderungen im menschlichen Verhalten, um seine Vorteile zu nutzen. Die Ergebnisse dieser Studie stärken unsere Zuversicht, dass wir auf dem Weg sind, die Art und Weise, wie Prozesse für Halbleiterchips entwickelt werden, deutlich zu verändern. Auf diese Weise werden wir ein entscheidendes Glied im Halbleiter-Ökosystem beschleunigen und dabei genau die Rechenleistung nutzen, die diese Halbleiterprozesse ermöglichen. Tatsächlich wird die KI dazu beitragen, sich selbst zu erschaffen – ähnlich der berühmten kreisförmigen Grafik von MC Escher, in der zwei Hände einander zeichnen.

Die Testplattform stellt ein typisches Engagement in unserer Branche dar, bei dem Eingabeparameter so ausgewählt werden, dass sie den Zielspezifikationen des Halbleiterherstellers für strenge Leistungskriterien entsprechen. Simulierte Werkzeugparameter und -bereiche („Unbeschränkte“ Werte in Tabelle 4 mit erweiterten Daten) basieren auf einem generischen Zweifrequenz-Plasmaätzreaktor31. Ausgabemetriken werden aus dem simulierten Profil erhalten.

Für jedes ausgewählte Rezept erhalten die Teilnehmer sechs Ausgabemetriken zusammen mit einem simulierten SiO2-Lochprofil. Für die Ausgabemetriken bezeichnet CD die „kritische Dimension“. Die obere CD wird an der Oberseite des SiO2-Lochs gemessen, während ΔCD (obere CD − untere CD) berechnet wird, indem die Breite bei 90 % der Ätztiefe („unten“) von der oberen CD abgezogen wird. Bow CD ist gleichbedeutend mit der maximalen Breite des Features. Unter Maskenhöhe versteht man die Höhe der Fotolackmaske, die das darunter liegende Material vor Ätzung schützen soll. Die anfängliche Höhe der Fotolackmaske beträgt 750 nm und die anfängliche CD hat einen Durchmesser von 200 nm.

Es ist erwähnenswert, dass die Prozesszeit kein Eingabeparameter ist, da wir einen Ätztiefendetektor simulieren, der die Ätzung automatisch bei der gewünschten Tiefe stoppt. Um Rechenzeit zu sparen, wird die Simulation gestoppt, wenn sich zu viel Polymer auf der Oberfläche ablagert, die CDs zu breit werden oder die Ätzrate zu langsam ist. Die Ätzrate wird aus der Tiefe nach dem Ätzen dividiert durch die (virtuelle) Zeit bis zum Endpunkt berechnet.

Eingabeparameter steuern die Plasmaerzeugung in der Kammer über dem Halbleiterwafer. Die Plasmazündung verwandelt einströmende neutrale Gase in ein komplexes Gemisch aus Ionen, Elektronen und reaktiven Radikalen, die auf den Wafer treffen. Die Prozesschemie und die verwendeten Eingabeparameter sind typisch für das Plasmaätzen von SiO2 (Lit. 32). Hochfrequenzenergie zündet das Plasma und moduliert die Ionenenergie und Winkelverteilungsfunktionen. Fluorkohlenstoffgase (C4F8, C4F6 und CH3F) steuern die SiO2-Ätzung, indem sie die Bildung flüchtiger Verbindungen wie SiF4, CO und CO2 sowie die Ablagerung einer teflonähnlichen Passivierungsschicht zum Schutz der Maske und der Seitenwände ausgleichen33. Fluorkohlenwasserstoffe und O2-Flussparameter bieten weitere Möglichkeiten, die Kohlenstoffpassivierung zu erhöhen bzw. zu verringern. Das geätzte Profil wird aus der zeitlichen Entwicklung der Ionen- und Radikalflüsse, die mit den Materialien auf der Waferoberfläche interagieren, und durch Berechnung der zeitlichen Entwicklung der Ätzfront erstellt.

Wir verwenden einen proprietären Feature-Profil-Simulator, eine wesentlich erweiterte Version des kommerziellen SEMulator3D-Prozesssimulators von Coventor34. Die von uns verwendete Version modelliert die detaillierten physikalischen und chemischen Prozesse, die beim Ätzen ablaufen, unter Verwendung von Plasma- und Materialparametern wie Ionenausbeute, Ionenfluss und reaktiven Haftkoeffizienten. Wir transformieren die 11 Eingabeparameter in ein Dutzend Plasma- und Materialparameter für den Profilsimulator. Wann immer möglich verwenden wir etablierte Prinzipien, die aus der kinetischen Gastheorie und der Arrhenius-Gleichung abgeleitet sind, um Eingabeparameter wie Drücke und Wafertemperaturen in Flüsse und Reaktionsgeschwindigkeiten umzuwandeln. Sofern verfügbar, verwenden wir empirische Beziehungen aus der Literatur35,36,37 sowie proprietäre diagnostische Messungen.

SEMulator3D verwendet eine Vielzahl von Berechnungsmethoden, einschließlich diskreter Voxeloperationen sowie statischer und transienter Level-Set-Methoden38. Das zentrale Modell in dieser Veröffentlichung verwendet eine transiente Level-Set-Methode mit einem proprietären, flussbasierten, hochpräzisen Plasmaphysikmodell. Bei der Level-Set-Methode gibt es keine explizite Darstellung der Punkte auf der Oberfläche. Stattdessen wird der Abstand von der Oberfläche als Abstandsfeld gespeichert, das auf dem Volumen um die Struktur und nicht auf der Oberfläche basiert. Anschließend wird eine partielle Differentialgleichung im Volumen gelöst, um das Distanzfeld über die Zeit auszubreiten, wobei die Geschwindigkeit r = r(x, t) (die Ätz-, Sputter- und Abscheidungsrate darstellt) der Oberflächenbewegung verwendet wird, die geeigneterweise auf eine Volumengröße erweitert wird . Der Hauptaufwand für die Berechnung von r(x, t) zu jedem Zeitpunkt besteht in der Berechnung der Partikelflüsse zu jedem Punkt auf der Profiloberfläche. Diese Flüsse unterscheiden sich von denen des Plasmamodells aufgrund der Schattenbildung innerhalb einer tiefen Struktur und der Partikelreflexion nach der Kollision mit anderen Punkten auf der Oberfläche. Insbesondere wird der Fluss an einem Punkt x als Integral über die Oberfläche des auf die Oberfläche auftreffenden Teils der Teilchendichte f(x, v) berechnet, wobei v die Geschwindigkeit ist39. Die flussbasierte Level-Set-Methode steht im Gegensatz zu einer Pseudopartikel-Methode, die ein Pseudopartikel über seine gesamte Lebensdauer vom Plasma bis zur Reaktion verfolgt und den chemischen Inhalt einer Netzzelle im Modell verändert40.

Um die simulierten Profile in dieser Veröffentlichung zu berechnen, wurde das Flussintegral numerisch geschätzt, um die Geschwindigkeiten r = r(x, t) zu berechnen, die dann im Finite-Differenzen-Schema verwendet wurden, um die partielle Differentialgleichung mit Level-Set zu lösen38. Um Rechenzeit zu sparen, haben wir eine große räumliche Diskretisierung von 25 nm gewählt, was bei einem typischen Lauf zu einer beobachteten Variabilität von ±2 nm führt. Jede Simulation dauert weniger als zehn Minuten mit 16 Kernen der Zentraleinheit und 32 GB RAM.

Die Prozesstestplattform wurde iterativ kreuzvalidiert und angepasst, bis sie experimentelle Rezeptdaten aus Kontaktanwendungen mit hohem Aspektverhältnis qualitativ reproduziert. Mithilfe einer Sensitivitätsanalyse wurden Abweichungen bei jedem Eingabeparameter untersucht, um sicherzustellen, dass das Modell mit bekannten Trends übereinstimmt.

Das innere Programm der Prozesstestplattform wurde weder an Menschen weitergegeben, die mit der Lösung der Prozessherausforderung beauftragt sind, noch an Datenwissenschaftler, die KI-Optimierungsalgorithmen entwickeln. Dies geschah, um mögliche Ergebnisverzerrungen oder ein Reverse Engineering unserer Plattform zu verhindern.

Der Progress Tracker ist unser Leistungsindikator zur Überwachung der Zielnähe eines Prozesses. Zur Klarstellung: Dieser Indikator dient lediglich der Veranschaulichung des Fortschritts. Es wurde keinem Teilnehmer angezeigt oder von Computeralgorithmen verwendet. In der Praxis überwachen Prozessingenieure den Fortschritt bis zum Ziel mithilfe einer „Kontrolltabelle“, in der Prozessergebnisse, wie z. B. die Ätzrate, farblich gekennzeichnet sind, je nachdem, ob sie das Ziel erreichten, nahe am Ziel lagen oder das Ziel nicht erreichten. Es gibt keinen standardmäßigen einwertigen Leistungsindikator, der die gesamte Tabelle darstellt. Daher haben wir für diesen Zweck den Progress Tracker entwickelt. Unser Fortschrittstracker hat Werte von 0 bis 1, je nachdem, ob der Prozess die Spezifikation erfüllt (0), fehlschlägt (1) oder irgendwo dazwischen liegt (0–1). Wir klassifizieren Ätzstopp und Maskenverbrauch als Fehler (1).

Um den Progress Tracker zu berechnen, nehmen wir den Mittelwert von sechs Bewertungen der sechs Ausgabemetriken, normalisiert auf 1, unter Verwendung der Definitionen in der erweiterten Datentabelle 1. Jeder Ausgabemetrik wird eine Bewertung von 0 zugewiesen, wenn sie die Zielwerte erfüllt. (Alle Werte müssen einen Wert von 0 haben, damit der Prozess das Ziel erreicht.) Einer Ausgabemetrik wird ein Wert von 1 zugewiesen, wenn sie weit vom Ziel entfernt ist. Für Ausgabemetriken, die nahe am Ziel liegen, wurde die Punktzahl linear von 1 auf 0 verringert. Der Progress Tracker gibt eine Punktzahl von 1 aus, wenn der Prozess aufgrund eines Ätzstopps (Ätztiefe unter 2.000 nm) fehlschlägt oder wenn keine Maske übrig bleibt (' „Verbleibende Maske“ ist gleich 0). Sobald die Progress Tracker-Werte für jedes Experiment berechnet wurden, wird der Progress Tracker als bester Wert pro Charge mit einem gleitenden Fenster von vier Chargen in Abb. 2 und Extended Data Abb. 1 und einem Batch in Extended Data Abb. 5 dargestellt.

Quelldaten für Abb. 2 und 3 liegen dem Papier bei. Weitere Daten, die die Ergebnisse dieser Studie stützen, sind auf begründete Anfrage beim entsprechenden Autor erhältlich.

Eine Demonstration der in dieser Studie verwendeten Simulationssoftware, die auf einer internen Plattform läuft, ist auf begründete Anfrage beim jeweiligen Autor erhältlich.

IEEE. Internationale Roadmap für Geräte und Systeme, Ausgabe 2020 (IEEE, 2020).

Graves, DB Plasmaverarbeitung. IEEE Trans. Plasmawissenschaft. 22, 31–42 (1994).

Artikel ADS CAS Google Scholar

Kanarik, KJ Ein Blick in die geheimnisvolle Welt des Plasmas: aus der Sicht eines Verfahrensingenieurs. J. Vac. Wissenschaft. Technol. A 38, 031004 (2020).

Artikel CAS Google Scholar

Kurzweil, R. Die Singularität ist nahe: Wenn Menschen die Biologie transzendieren (Viking, 2005).

Tegmark, M. Leben 3.0: Mensch sein im Zeitalter der künstlichen Intelligenz (Penguin, 2018).

Hsu, F.-H. Hinter Deep Blue: Der Bau des Computers, der den Schachweltmeister besiegte (Princeton Univ. Press, 2002).

Silver, D. et al. Das Go-Spiel ohne menschliches Wissen meistern. Natur 550, 354–359 (2017).

Artikel ADS CAS PubMed Google Scholar

Samukawa, S. et al. Die Plasma-Roadmap 2012. J. Phys. D 45, 253001 (2012).

Artikel ADS Google Scholar

Winters, HF, Coburn, JW & Kay, E. Plasmaätzen ein „Pseudo-Black-Box“-Ansatz. J. Appl. Physik. 48, 4973–4983 (1977).

Artikel ADS CAS Google Scholar

Zhang, Y. & Ling, C. Eine Strategie zur Anwendung maschinellen Lernens auf kleine Datensätze in der Materialwissenschaft. NPJ-Berechnung. Mater. 4, 28–33 (2018).

Artikel ADS Google Scholar

Kim, K. et al. Erweiterung der DRAM- und FLASH-Speichertechnologien auf 10 nm und mehr. Proz. SPIE 8326, 832605 (2012).

Artikel Google Scholar

Greenhill, S., Rana, S., Gupta, S., Vellanki, P. & Venkatesh, S. Bayesianische Optimierung für adaptives experimentelles Design: eine Übersicht. IEEE Access 8, 13937–13948 (2020).

Artikel Google Scholar

Shao, K., Pei, Plasmaquellen Sci. Technol. 31, 055018 (2022).

Artikel ADS Google Scholar

Shahriari, B., Swersky, K., Wang, Z., Adams, RP & De Freitas, N. Den Menschen aus dem Kreislauf nehmen: ein Überblick über die Bayes'sche Optimierung. Proz. IEEE 104, 148–175 (2016).

Artikel Google Scholar

Lang, CI, Jansen, A., Didari, S., Kothnur, P. & Boning, DS Modellierung und Optimierung der Auswirkungen von Prozess- und Geräteparametern in Sputter-Abscheidungssystemen mithilfe eines Gaußschen Prozess-Machine-Learning-Frameworks. IEEE Trans. Halbleiter. Hersteller 35, 229–240 (2021).

Artikel Google Scholar

Chen, Z., Mak, S. & Wu, CFJ Eine hierarchische erwartete Verbesserungsmethode für die Bayes'sche Optimierung. Vorabdruck unter https://doi.org/10.48550/arxiv.1911.07285 (2019).

Guler, S., Schoukens, M., Perez, TD & Husakowski, J. Bayesianische Optimierung zur Abstimmung von Lithographieprozessen. IFAC-PapersOnLine 54, 827–832 (2021).

Artikel Google Scholar

Foreman-Mackey, D., Hogg, DW, Lang, D. & Goodman, J. Moderator: der MCMC-Hammer. Publ. Astron. Soc. Pac. 125, 306 (2013).

Artikel ADS Google Scholar

Akiba, T., Sano, S., Yanase, T., Ohta, T. & Koyama, M. in Proc. 25. ACM SIGKDD Internationale Konferenz zu Knowledge Discovery & Data Mining 2623–2631 (ACM, 2019).

Bergstra, J., Bardenet, R., Bengio, Y. & Kégl, B. in Proc. 24. Internationale Konferenz über neuronale Informationsverarbeitungssysteme (Curran Associates, 2011).

Rasmussen, CE & Williams, CKI Gaußsche Prozesse für maschinelles Lernen (MIT Press, 2006).

Fortuin, V. Priors in Bayesian Deep Learning: eine Rezension. Int. Stat. Rev. 90, 563–591 (2022).

Artikel MathSciNet Google Scholar

Liang, Q. et al. Benchmarking der Leistung der Bayes'schen Optimierung in mehreren Bereichen der experimentellen Materialwissenschaft. NPJ-Berechnung. Mater. 7, 188 (2021).

Artikel ADS Google Scholar

Silver, N. Das Signal und das Rauschen: Warum so viele Vorhersagen scheitern – manche jedoch nicht (Penguin, 2012).

Miller, JL Nobelpreisträger für Chemie machten sich die Evolution zunutze, um alten Proteinen neue Tricks beizubringen. Physik. Heute 71, 22–25 (2018).

Artikel ADS CAS Google Scholar

Dietvorst, BJ, Simmons, JP & Massey, C. Algorithmenaversion: Menschen meiden Algorithmen fälschlicherweise, nachdem sie gesehen haben, dass sie Fehler machen. J. Exp. Psychol. Gen. 144, 114–126 (2015).

Artikel PubMed Google Scholar

Dafoe, A. et al. Kooperative KI: Maschinen müssen lernen, Gemeinsamkeiten zu finden. Natur 593, 33–36 (2021).

Artikel ADS CAS PubMed Google Scholar

AlphaGo gegen Lee Sedol. Wikipedia https://en.wikipedia.org/wiki/AlphaGo_versus_Lee_Sedol (2021).

Pan, SJ & Yang, Q. Eine Umfrage zum Transferlernen. IEEE Trans. Wissen. Daten-Ing. 22, 1345–1359 (2010).

Artikel Google Scholar

Ziatdinov, MA, Ghosh, A. & Kalinin, SV Physik macht den Unterschied: Bayesianische Optimierung und aktives Lernen durch erweiterten Gaußschen Prozess. Mach. Lernen. Wissenschaft. Technol. 3, 015003 (2022).

Artikel ADS Google Scholar

Donnelly, VM & Kornblit, A. Plasmaätzen: gestern, heute und morgen. J. Vac. Wissenschaft. Technol. A 31, 050825 (2013).

Artikel Google Scholar

Huang, S. et al. Plasmaätzen von Merkmalen mit hohem Aspektverhältnis in SiO2 unter Verwendung von Ar/C4F8/O2-Mischungen: eine rechnerische Untersuchung. J. Vac. Wissenschaft. Technol. A 37, 031304 (2019).

Artikel Google Scholar

Zheng, L., Ling, L., Hua, X., Oehrlein, GS & Hudson, EA Studien zur Filmabscheidung in Fluorkohlenstoffplasmen unter Verwendung einer Struktur mit kleinem Spalt. J. Vac. Wissenschaft. Technol. A 23, 634–642 (2005).

Artikel CAS Google Scholar

Coventor, Inc. SEMulator3D, virtuelle Fertigungssoftwareplattform. http://www.coventor.com.

Steinbrüchel, C. Universelle Energieabhängigkeit physikalischer und ionenverstärkter chemischer Ätzausbeuten bei niedriger Ionenenergie. Appl. Physik. Lette. 55, 1960–1962 (1989).

Artikel ADS Google Scholar

Knoll, AJ, Pranda, A., Lee, H. & Oehrlein, GS Einfluss der Substrattemperatur auf das Migrationsverhalten von Fluorkohlenstofffilmvorläufern in Strukturen mit hohem Aspektverhältnis. J. Vac. Wissenschaft. Technol. B 37, 031802 (2019).

Artikel Google Scholar

Nelson, CT, Sant, SP, Overzet, LJ & Goeckner, MJ Oberflächenkinetik mit Beschuss mit niedriger Ionenenergie in Fluorkohlenstoffplasmen. Plasmaquellen Sci. Technol. 16, 813–821 (2007).

Artikel ADS CAS Google Scholar

Sethian, JA Level-Set-Methoden und Fast-Marching-Methoden: Evolving Interfaces in Computational Geometry, Fluid Mechanics, Computer Vision und Materials Science (Cambridge Univ. Press, 1999).

Hamaguchi, S. & Dalvie, M. Mikroprofilsimulationen für Plasmaätzen mit Oberflächenpassivierung. J. Vac. Wissenschaft. Technol. A 12, 2745–2753 (1994).

Artikel CAS Google Scholar

Hoekstra, RJ, Grapperhaus, MJ & Kushner, MJ Integriertes Plasmaausrüstungsmodell für Polysilizium-Ätzprofile in einem induktiv gekoppelten Plasmareaktor mit Subwafer- und Superwafer-Topographie. J. Vac. Wissenschaft. Technol. A 15, 1913–1921 (1997).

Artikel CAS Google Scholar

Referenzen herunterladen

Wir danken CJ Spanos von der UC Berkeley für hilfreiche Gespräche und Kommentare zum Manuskript und unseren Lam-Kollegen A. Faucett, A. Chowdhury, Y. Miao, Z. Blum, Q. Kong, L.-C. Cheng, R. Le Picard, E. Hudson, A. Marakhtanov und B. Batch für ihre Hilfe beim virtuellen Prozess. Wir danken S. Grantham und D. Belanger für die Grafiken.

Lam Research Corporation, Fremont, Kalifornien, USA

Keren J. Kanarik, Wojciech T. Osowiecki, Yu (Joe) Lu, Dipongkar-Sprecher, Niklas Roschewsky, Sae Na Park, Mattan Kamon, David M. Fried und Richard A. Gottscho

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

KJK konzipierte und gestaltete die Studie mit RAG, verfasste die Arbeit mit RAG und erstellte den virtuellen Prozess mit WTO. Die WTO erstellte den virtuellen Prozess mit KJK und schrieb einen Teil der Methoden. YL leitete die datenwissenschaftlichen Bemühungen, entwickelte Software zur Datenerfassung für die Algorithmen und analysierte und interpretierte Daten. DT hat eine API-Software entwickelt, die die Algorithmusbeteiligung automatisiert. NR konzipierte den Einsatz von Algo2, führte vorläufige Ergebnisse durch und half bei der Interpretation der Daten. SNP hat Algo3 erstellt und ausgeführt. MK half bei der Erweiterung der Simulationssoftware und schrieb einen Teil der Methoden. DMF überwachte die Datenerfassung und half bei der Interpretation. RAG konzipierte den Einsatz einer virtuellen Umgebung für die Studie und verfasste die Arbeit gemeinsam mit KJK

Korrespondenz mit Richard A. Gottscho.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Nature dankt Duane Boning und Ying-Lang Wang für ihren Beitrag zum Peer-Review dieser Arbeit. Peer-Reviewer-Berichte sind verfügbar.

Anmerkung des Herausgebers Springer Nature bleibt hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten neutral.

Das Ziel ist erreicht, wenn der Progress Tracker 0 ist. Keinem der unerfahrenen Teilnehmer gelang es, das Ziel zu erreichen. Beachten Sie, dass die kumulierten Kosten auf der x-Achse auf 200.000 $ gekürzt werden.

Die blaue Linie ist die Flugbahn allein des Junior-Ingenieurs Nr. 3 mit Kosten bis zum Ziel von 190.000 US-Dollar. Die orangefarbene Linie auf der Sekundärachse stellt die mittleren Kosten von HF-CL (unter Verwendung von Algo3) an den angegebenen Transferpunkten dar (erweiterte Datentabelle 3). Es ist die V-förmige Abhängigkeit von Cost-to-Target erkennbar. HF-CL bietet beeindruckende Kosteneinsparungen am Punkt B′ im Vergleich zum Junior-Ingenieur allein. Allerdings sind die Cost-to-Target immer noch deutlich höher (ungefähr doppelt so hoch) wie bei HF-CL unter Verwendung der Experten-Algo-3-Kombination.

Ergebnisse für verschiedene Menschen, die bei der HF-CL-Strategie mit Algo3 zusammengearbeitet haben. Informationen zur Notation finden Sie in der erweiterten Datentabelle 2. (Beachten Sie, dass SE1 Punkt C in Abb. 3c und JE3 Punkt C′ in Abb. 2 der erweiterten Daten ist.) Jeder Mensch übertrug einen Datenäquivalent von 40.000 US-Dollar (oder den nächsten vollständigen Stapel; siehe Tabelle 5 der erweiterten Daten) zusammen mit einer Einschränkung Suchbereich (Erweiterte Datentabelle 4) auf den Computer übertragen. Da In1 nicht über genügend Erfahrung verfügte, um den Bereich einzuschränken, wurde ein adaptiver Bereichsparameter verwendet, der 10 % über die Datenverteilung hinaus suchte. Jeder Punkt repräsentiert eine von 100 unabhängigen Flugbahnen. Die Zielkosten sind die Summe der Kosten für Mensch und Computer. Orangefarbene Linien stellen die mittleren Kosten bis zum Ziel dar; Schwarze horizontale Linien zeigen die vom Menschen übertragenen Kosten an. Die niedrigsten Kosten werden mit den höchsten Erfahrungsniveaus erzielt. Insgesamt belegen die Ergebnisse, dass die HF-CL-Strategie die Kosten wirksamer senkt, wenn sie mit erfahreneren Menschen zusammenarbeitet.

Diese Abbildung zeigt Ergebnisse für HF–CL unter Verwendung des Experten und Algo3. Die erste Spalte ist Punkt C in Abb. 3c, in der Algo3 sowohl 32 Expertendatenpunkte als auch den eingeschränkten Bereich erhält. In der zweiten Spalte werden Algo3 nur die Expertendaten, aber nicht der eingeschränkte Bereich bereitgestellt (stattdessen wird ein adaptiver Bereichsparameter verwendet, der 10 % über die Datenverteilung hinaus sucht). In der dritten Spalte erhält Algo3 den eingeschränkten Bereich, aber keine Daten vom Experten, sondern verwendet stattdessen 100 verschiedene 32-Punkte-Latin-Hypercube-(LHC)-Zufallsstichproben-Seeds. In der vierten Spalte werden Algo3 keine Informationen vom Menschen zur Verfügung gestellt. Die schwarzen Pfeile zeigen prozentuale Kosteneinsparungen im Vergleich zum Experten allein, mit einem gestrichelten Pfeil in der dritten Spalte, weil wir für den Zugriff auf die Einschränkung keine Gebühren erhoben haben. Jeder Punkt repräsentiert eine von 100 unabhängigen Flugbahnen. Die Leistung von Algo3 sowohl mit dem eingeschränkten Expertenbereich als auch mit den menschlichen Daten legt nahe, dass der Ingenieur bei der Implementierung von HF-CL nach Möglichkeit sowohl Daten als auch den eingeschränkten Bereich bereitstellen sollte.

Das Ziel ist erreicht, wenn der Progress Tracker 0 ist. Die Trajektorie des Experten (SE1) wird in Grau dargestellt, mit Übertragung an den Computer am Punkt C. Die blaue Linie ist die Trajektorie des Algorithmus; Die gestrichelte graue Linie ist nur für den Experten die Fortsetzung der Flugbahn. Der Algorithmus ist Algo1 in den Feldern a–c, Algo2 in den Feldern d–f und Algo3 in den Feldern g–i.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative-Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht durch gesetzliche Vorschriften zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Kanarik, KJ, Osowiecki, WT, Lu, Y.(. et al. Mensch-Maschine-Zusammenarbeit zur Verbesserung der Halbleiterprozessentwicklung. Nature 616, 707–711 (2023). https://doi.org/10.1038/s41586-023 -05773-7

Zitat herunterladen

Eingegangen: 12. Januar 2022

Angenommen: 31. Januar 2023

Veröffentlicht: 08. März 2023

Ausgabedatum: 27. April 2023

DOI: https://doi.org/10.1038/s41586-023-05773-7

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.

AKTIE