Im April-Heft der Technology Review (2012) gab es einen Schwerpunkt zum Thema Rapid Manufacturing oder Additive Manufacturing, wie man nun wohl häufiger sagt. Sehr schöner Überblick über das, was inzwischen schon so alles geht – Lichtgedichte vom Laser z. B. gefällt mir so gut! – und was grad in der Pipeline ist, und auf die Perspektiven dieser Technik, also: wo sind die Nadelöhre, wo sind die Herausforderungen. Als wichtige Herausforderung wird unter anderem wohl die Schnittstelle zwischen Mensch – als Konsument in der Rolle des Produzenten, des Produkt-Entwicklers – und Maschine gesehen. Es ist ja so bei der Additiven Fertigung, dass zunächst dieses STL-File erstellt werden muss, also der maschinenlesbare Entwurf dessen, was man herstellen will. Und das ist ja ein enorm anspruchsvoller Vorgang, man muss über all das genauestens Bescheid wissen, die konstruktiven Eigenheiten und Anforderungen, die Beschaffenheit des Materials, erforderliche Festigkeit, Biegsamkeit, Belastbarkeit… lauter Dinge von denen man keine Ahnung hat und haben muss, wenn man in ein Geschäft geht und sich etwas kauft, beispielsweise einen Laufschuh, zum Rennen. Nun können natürlich solche Entwürfe gewissermassen vorgefertigt werden und irgendwo abgelegt, wo man sie sich dann herunterlädt und dann ein wenig – oder ein wenig mehr – “editieren” kann, also an die eigenen Wünsche, Vorstellungen und Bedürfnisse – etwa die Form der Füsse, wenn es sich um Schuhe handelt – anpassen.
Frank T. Piller, Professor an der RWTH Aachen und einer der weltweiten Vordenker der “Mass Customization”, sieht in der “Gestaltung des Lösungsraumes” eine der zentralen Herausforderungen, die bewältigt werden müssen, um diese Technik wirklich in der Breite nutzbar und erfolgversprechend werden zu lassen. Man muss Möglichkeiten finden, dem Nutzer einerseits dieses Meer der Möglichkeiten vor Augen zu führen, das ihm mit dieser Technik zur Verfügung steht, andererseits darf er darin aber auch nicht ertrinken! Er muss auch erkennen können, wo die Grenzen der Möglichkeiten sind; die physischen oder physikalischen Anforderungen des Entwurfs oder seines Wunsch-Designs muss so eine interaktive Lösung also einerseits “kennen”, das Wissen muss also darin implementiert sein, andererseits muss sie es dem Nutzer anschaulich darstellen und erkennbar machen können. Wahrhaftig eine Herausforderung an das Software-Engineering! Beispielsweise müsste er seinen Entwurf in der geplanten Funktion simulieren können, es muss ihn also nicht nur vor sich sehen, sondern ihn auch in “Action” erleben können, und mögliche Schwächen im Entwurf entdecken und behebn können… gewaltig.
Ein weiteres ganz wichtiges Element des Additive Manufacturung sind natürlich die Materialien, die Baustoffe… Hier wird gegenwärtig offenbar ebenso intensiv geforscht wie an den Verfahren selber; zum Teil ist es ja auch so dass die Materialien bestimmte Verfahren auch erzwingen, das muss also aufeinander abgestimmt sein. In dem Heft wird zum Beispiel beschrieben, wie ein bestimmtes Stahlpulver auf eine ganz bestimmte Weise beim Laser-Sintern behandelt werden muss, nämlich so dass der Laser in einem 67°-Winkel auf das Pulver auftrifft – weil dadurch bestimmte Eigenschaften erzielt werden können, wie zum Beispiel die erwünschte Härte und Festigkeit, aber ohne Verlust der Elastizität.
Aber doch, trotz aller speziellen Schwierigkeiten und der großen Varianz der gegenwärtig verfügbaren Maschinen, Materialien und Verfahren: wie das auch in diesem Heft vorhandene Interwiew mit Neil Gershenfeld, dem “Vater” der FabLabs in der ganzen Welt und einem der Pioniere der “Personal Fabrication”, handelt es sich im Prinzip um Variationen der “digitalen Fabrikation”, um “Universal Desktop Fabrication”, wie ein wissenschaftlicher Artikel zu dem Forschungsgebiet überschrieben ist. Und das bedeutet nichts anderes als: prinzipielle Universalisierung, und damit prinzipielle Homogenisierung der Verfahren, der Maschinen, und der Materialien, und – nahezu grenzenlose – Individualisierung erst im Produkt: werkzeuglose, vollmaschinelle Fertigung in der Losgrösse 1.
Während nun viele Autoren hier bei der theoretischen Basisforschung zur Additiven Fertigung davon ausgehen, dass es sich bei diesem Prozess tatsächlich um “Addition” von kleinsten und allerkleinsten Bauteilen handelt, die “selber” dazu keinen aktiven Beitrag leisten, forscht Gershenfeld an Materialien, die “intelligent” sind, die also Logik und maschinelle Intelligenz beherbergen, mit dem Ziel, eines Tages sich selbst zu einem grösseren Ganzen formende Materialien zu besitzen, die – analog der biologischen organischen Zelle – wachsen und auf diese Weise Dinge “fabrizieren” können. Gershenfeld rechnet innerhalb der nächsten 20 Jahre damit, in diesem Sinne digitale Materialien verfügbar zu haben.
So oder so: es handelt sich in beiden Fällen um “digitale Fabrikation”, was eben auch bedeutet, mit diskreten und universalen Einheiten oder Grundbausteinen zu operieren, und hier sieht Gershenfeld “so eine Art Mikro-Lego” am Horizont seiner Forscher-Träume, also Bausteine, die universal verwendbar sind und sich zu beliebigen Dingen – “almost anything” – zusammensetzen lassen. Und nicht nur das – ebenso auch wieder auseinandernehmen lassen, das Material bleibt als solches also – wie das Vorbild Lego-Stein – für weitere Verwendungen verfügbar, was ja mit Blick auf ökologische Erfordernisse ja mit einem Schlag all diese Probleme mit der Umweltmüll, genauso wie Ressourcenknappheit erledigen würde…man mag ja kaum so recht gleich dran glauben, zu schön um wahr zu sein, sagt hier die skeptische innere Stimme der Vernunft. Man wird sehen.
Festhalten können wir allerdings: die zentralen Prinzipien sind 1) Universalität, und 2) Homogenität. An was erinnert uns das denn nun?
In diesem gleichen Heft der Technolgy Review gibt es ein “historisches Gespräch”, ein fiktives Interview mit Oskar von Miller, einem Ingenieur, der zwischen 1855 und 1934 in München gelebt hat und dessen bleibender Verdienst darin besteht, die Elektrifizierung in Deutschland vorangetrieben zu haben. Es ist wahrhaftig interessant sich das noch einmal vor Augen zu führen, dass die Menschen ja damals von den Vorteilen der Elektrizität überzeugt werden mussten; dass man damals bei Elektrizität nur an das Licht dachte, und Oskar von Miller Überzeugungsarbeit leisten musste, um klar zu machen, dass sich ja auch Elektromotoren so betreiben lassen… und dass die Elektrizität damals in Hinterhöfen von kleinen Generatoren, angetrieben von Dampfmaschinen, erzeugt wurde. Oskar von Schwemmer hat die Grundlagen dafür gelegt, dass die Elektrizität zentral in Kraftwerken erzeugt und von da über Leitungen in die Haushalte verteilt worden ist. Erst so war es möglich, die Elektrizität und ihre Nutzung zu einem festen Kulturbestandteil werden zu lassen, zu einer festen und kalkulierbaren Größe, auf die sich all die zahllosen Erfindungen und Innovationen stützen konnten, die als Energiequelle die jederzeitige Verfügbarkeit elektrischer Energie voraussetzen.
Wegen der enormen Wichtigkeit dieser Energiequelle und der Wichtigkeit der Tatsache, dass sie auch zuverlässig und jederzeit in der erforderlichen Menge verfügbar ist, für private Haushalte ebenso wie für die Industrie, hat man die Erzeugung der elektrischen Energie lange Zeit nicht dem Spiel der Marktkräfte überlassen. Kraftwerke zur Energieerzeugung waren lange in öffentlichem Besitz, sie waren eine wichtige Aufgabe der kommunalen Stadtwerke, bis der Privatisierungswahn die politischen Gestalter in die ideologische Verblendung trieb, und sie die Energieerzeugung privater Gewinnsucht in die Hände gaben. Möglich und sinnvoll, die Energieerzeugung in öffentlicher Regie zu betreiben war es deshalb, weil es sich bei der Elektrizität um ein vollkommen homogenes Gut handelt, und eben um ein sehr wichtiges und basales. Elektrizität kommt für jeden Verbraucher vollkommen gleichartig aus der Steckdose, vollkommen ununterscheidbar, und einen “Yellow Strom” hat erst die Gewinnsucht privater Energieerzeuger erfunden, die sich von so einer Phantasie-Benamung erhofften, die Verbraucher zu blenden und ihnen vorzumachen es handle sich um einen irgendwie anderen oder besseren Strom, der darum auch ein bischen teurer sein darf.
Digitale Fertigung macht Konsumgüter ebenfalls zu einem homogenen Gut. Ob in der digital gesteuerten Industriefabrik, der Industrie 4.0, oder im privaten Haushalt der ferneren Zukunft: Bezogen wird gewissermaßen abstrakte Fertigungsleistung, die Beschreibung von Produkten aus Daten: zu welchem Konsumgut die sich in der Digitalfabrik oder sogar beim Konsumenten in dessen Haushalt formen, ist vollkommen in dessen Ermessen gestellt. Der Besitzer einen digitalen Fabrik, der dann auch der Konsument sein kann, bekommt nur die “Bits und Bytes”, und ein universaler “Additiver Fabricator” oder eine komplexe Digialfabrik baut aus diesen Bits und Bytes das Konsumgut zusammen.
So wäre das im Prinzip. Da aber ersichtlich – das sagt auch schon der Blick auf den gegenwärtig erreichten State of the Art in dieser Branche – die Entwicklung noch sehr lange dauern wird, bis es wirklich universale und kleine und selbstreplizierende und allgemein verfügbare Fabrikatoren für “allmost anything” geben wird, wird es zunächst verschiedene Spezial-Fabrikatoren geben, Spezialisten für unterschiedliche Größen der Bauteile, unterschiedliche Materialien, unterschiedliche Baugeschwindigkeiten, Komplexitäten etc etc, so wie es im Laufe der Geschichte der Computer auch sehr unterscheidliche Rechnermodelle mit verschiedenen Anwendungsschwerpunkten gab, obwohl der Computer an sich die universalste Maschine ist, die man sich überhaupt denken kann.
Und diese unterschiedlichen Maschinen, all das was dazu gehört sie zu betreiben, fachkundige Menschen sicher auch, die Software, die Kapazitätsplanung, also sozusagen eine Fabrikatoren-Fabrik, eine geballte Ansammlung von universaler Fabrikations-Kapazität: all das sollte sich eines schönen Tages in öffentlichem Besitz befinden, vielleicht – wie die Stadtwerke – auf kommunaler Ebene, und ermöglichen, dass die Menschen ebenso wie früher auf die Stromerzeugung auf diese Produktionskapazität zugreifen können und sich darauf verlassen, dass sie verfügbar ist, und das alles dann zu einer angemessen Kostenbeteiligung, von der man annehmen kann, dass sie so sein wird, dass sich die Versorgung mit Konsumgütern auf diese Weise insgesamt drastisch verbilligen wird.
Die durch das Internet gegebenen Möglichkeiten, aktiv an der Entwicklung von Produkten und Verfahren, von Materialien und Entwürfen mitzuwirken, ist ja dadurch nicht behindert, im Gegenteil lassen sich diese Möglichkeiten so erst umfassend ausarbeiten und institutionalisieren.
Jedenfalls kommt es darauf an, die Produktion von Konsumgütern in öffentlichen Besitz zu verlagern und zu übertragen, denn das Spiel der Marktkräfte ist zu unberechenbar und zu unzuverlässig geworden, als dass dies zu einer sicheren und planbaren Lebensgestaltung auf lange Sicht noch die Basis sein könnte. Wir müssen uns verlässlichere Grundlagen der Existenzsicherung schaffen. Die Märkte werden in Zeiten hoher Marktsättigung zu volatil, die Bedarfe sind zu grossem Teil Luxuskonsum geworden, der ohne weiteres aufschiebbar ist, wenn sich am Konjunkturhimmel Wolken zeigen, so wie in der Gegenwart schon wieder einmal. Und dann kontrahiert die Wirtschaftstätigkeit, die Umsätze gehen zurück, und all die vielen gering beschäftigten und schlecht bezahlten Menschen, deren Konsum keineswegs aufschiebbar und Luxuskonsum geworden ist, müssen darunter leiden.
Commons und Open Source sind in der Gegenwart gewissermassen die Spielwiese, auf der diese Prinzipien erprobt werden können, nach denen später einmal Wirtschaftsprozesse gestaltet sein werden. Aber wir werden diese Prinzipien institutionalisieren müssen und in die politischen Verfassungen und die öffentlichen Grundgerüste der Existenzsicherung einkonstruieren und einbauen.
Dann können wir unter Umständen besseren Zeiten entgegensehen.