Picking the Herausforderung – Roboter, die in die Welt schauen, selbst entscheiden und immer besser werden.

Max im Gespräch mit Frederik Brantner, Founder und CEO der Firma Magazino, ein Logistik Startup aus München.


Intelligente, mobile Roboter für die Intralogistik ist das Thema dieser Folge von Max und die SupplyChainHelden. Magazino, das 2014 in München gegründete Start up entwickelt sich zu einem der innovativsten Unternehmen seiner Branche. „Wir entwickeln und bauen Roboter, die gemeinsam mit Menschen arbeiten – autonom, sicher und auf einem Komplexitätslevel, das noch niemand vor uns erreicht hat,“ sagt Frederik Brantner, CEO und Founder des Unternehmens.

Max Meister beobachtet das Unternehmen schon lange und freut sich über den Erfolg eines Münchner Unternehmens in diesem Zukunftsmarkt. Sind doch diese Roboter gerade für die Logistik eine bemerkenswerte Perspektive. Dementsprechend aufschlussreich aber auch spannend gestaltet sich das Gespräch zwischen Max und Frederik Brantner und bringt Licht in viele Facetten der Herausforderung Menschen und Roboter sicher nebeneinander in bestehenden Lagerumgebungen einzusetzen.

Viel Freude beim Hören.

 

 

Transskript

Transskript/Links 

MAX: (Musik)  Willkommen bei Max und die Supply Chain Helden, deinem Unternehmer Podcast zum Thema Einkauf und Logistik im digitalen Wandel. Gedanken, Erfahrungen und vor allem Erkenntnisse aus dem Bereich Supply Chain Management. Ganz ohne Beratermission, einfach, verständlich, eben aus Unternehmersicht. Ich bin Max Meister und wünsche euch viel Spaß.

Herzlich willkommen zu einer neuen Folge von Max und die Supply Chain Helden. Heute bin ich im Gespräch mit Frederik Brantner, seines Zeichens Gründer und CEO von der Firma Magazino, ein Logistik Startup hier aus München. Mich freut sehr, dass die hier vorwärtskommen und auch eine Technik entwickelt haben, die einen durchaus spannenden Nischenmarkt für sich erobern könnte. Das Ganze sind Roboter, die durch Handregale fahren und dort Einzelelemente wie beispielsweise Schuhkartons picken können. Und ich glaube, die Technik ist nicht ganz einfach zu erklären. Ich hoffe, es gelingt uns ganz gut und ihr werdet in den nächsten 40 Minuten einen kleinen Einblick bekommen, was heute bei der Entwicklung von so einer Logistiktechnik auch IT-seitig in Richtung Machine-Learning und auch Navigation wirklich verlangt wird. Und mich freut, dass die hier so gut nach vorne gehen ich wünsche ihnen viel Erfolg. Und jetzt wünsche ich euch viel Spaß bei der Folge. Wie immer Feedback an Max@supplychainhelden.de und ich mache gern auch nochmal einen zweiten Podcast, wenn wir irgendeinen Themenbereich nicht abgedeckt haben, der euch interessiert. Bis dann, viel Spaß.

MAX:  Herzlich willkommen zu einer neuen Show von Max und die Supply Chain Helden. Ich sitze heute hier bei einem Startup oder mittlerweile Grownup in München, bei der Firma Magazino. Und neben mir sitzt der Gründer Frederik. Jetzt hätte ich die Bitte, stelle dich doch mal vor. Wer bist du und was machst du?

Frederik Brantner: Mein Name ist Frederik Brandtner, ich bin einer von drei Gründern und Geschäftsführer von Magazino. Wir bauen Roboter für die Logistik, also Roboter, die ich in bestehende Lager einfach mit dazu schiebe, wie einen automatisierten Leiharbeiter.

MAX:  Seit wann gibt es eure Firma?

Frederik Brantner: Wir sind gegründet Januar 2014, hatten dann zwei, drei Finanzierungsrunden und sind mittlerweile auf 110 Mitarbeiter gewachsen.

MAX:  Wie verteilen sich die Mitarbeiter, damit sich die Hörer vorstellen können, was für eine Firme ihr überhaupt seid? Weil die ja nicht hier sitzen.

Frederik Brantner: Wir sind zum größten Teil eine Softwarefirma. Wir haben knapp 55 Softwareentwickler, zum Teil draußen an der Front, aber auch vor allem hier Inhouse, der Rest ist dann vor allem auch Hardwareentwicklung, Maschinenbau und Elektrotechnik. Und dann gibt es natürlich auch klassische Bereich wie Sales, Marketing, HR, Finance, aber da sind wird relativ schlank aufgestellt. Wir sind extrem entwicklungsgetrieben.

MAX:  Wenn du sagst, 110 insgesamt und 55 Softwareentwickler, wie teilen sich die anderen beiden Bereiche ungefähr prozentual auf, wenn du die Zahlen sagen kannst?

Frederik Brantner: Wir haben knapp 20 nochmal im Hardwarebereich und dann der Salesbereich, das sind ungefähr 10. Wir haben noch eine kleine Produktion, da teilt sich dann der Rest ungefähr auf.

MAX:  Wir sitzen mitten in München, wo seid ihr überall, wo produziert ihr und wo sind eure Standorte?

Frederik Brantner: Wir sind bis jetzt nur in München als Office und wir produzieren auch hier an einem Standort. Wir beschäftigen alle Mitarbeiter selbst, auch die Köchin, die Putzfrau, ist alles under payroll. Wir haben aber zum Teil Mitarbeiter, die vor Ort beim Kunden die Roboter in Betrieb nehmen und da sitzen welche in Erfurt, es sitzen welche in Osnabrück, gerade welche in Belgien und in Polen.

MAX:  Zu den Einsatzszenarien kommen wir später. Ich bin bekennender Logistik Geek, der am Samstag in der Früh YouTube-Videos schaut über irgendwelche Logistiksysteme, aber kannst du mal grob beschreiben, wie sieht denn ein Magazino-System aus. Aus welchen Komponenten besteht es und wie funktioniert es?

Frederik Brantner: Lass uns davor nochmal einen kurzen Schwenk in die Robotik machen und dann von dort aus auf, was macht eigentlich ein Magazino Roboter im Speziellen. Ich glaube, die Robotik verändert sich gerade fundamental. In der Vergangenheit hatte man Roboterarme und die haben immer die gleiche Bewegung gemacht, immer den gleichen Schweißpunkt an die gleiche Stelle gesetzt. Das haben die Millionen Mal gemacht, da waren die gut, wiederholgenau, schnell und auch gar nicht so teuer. Und jetzt will man Roboter haben, die in der echten Welt Dinge tun, die bis jetzt Menschen gemacht haben. Und das ist ungleich komplexer, denn ich brauche Roboter, die in die Welt schauen, auf Basis dessen, was sie sehen, sich diese Informationen merken, die Information mit anderen teilen, auf Basis dieser Informationen und Daten lernen und dann, währenddessen sie durch die Welt fahren, auf Basis von dem, was sie gelernt haben, was sie wissen und was sie sehen, selber Entscheidungen treffen. Und das Ganze machen sie noch parallel zum Menschen. Wie muss man sich das konkret vorstellen? Ein großes Missverständnis war immer, dass die Leute geglaubt haben, wenn man den Zaun vom Roboter wegmacht, dann muss der Roboter sicher werden. Das hat man jetzt auch geschafft, Roboterarme sind sicher. Aber das war eigentlich gar nicht das Schwierige. Was die Leute vergessen haben, wenn der Zaun weg ist, dann schützt niemand mehr den Roboter vor den Menschen. Der Mensch produziert Chaos, konstant. Und in der Logistik ist es auch so. In der Logistik sind Menschen unterwegs und das ist ein guter Grund, warum das bis jetzt immer Menschen gemacht haben. Weil der Prozess, die Kleinigkeiten, immer ein bisschen anders sind. Mal stand etwas im Weg, mal ist irgendwo etwas anders. Es ist eben nicht so deterministisch wie in der Produktion, wo ich den Menschen meistens durch einen Zaun weggeschoben habe und das Bauteil immer an der genau gleichen Stelle liegt, ich immer genau weiß, wenn ich dorthin greife, habe ich dieses Teil oder dieses Werkzeug. Und das ist eben in der Logistik, in Fachbodenanlagen, in allen anderen Bereichen, anders. Da verändert sich die Welt die ganze Zeit und um mit dieser Änderung klarzukommen, brauche ich Roboter, die in die Welt schauen und eben nicht nur das Objekt erkennen, sondern auch die Welt drumherum wahrnehmen. Was ist jetzt der konkrete Fall von Magazino? Wir bauen einen Roboter, der im Schuhbereich, im E-Commerce, Schuhe aus der Fachbodenanlage entnimmt, nach vorne bringt in eine Übergabestation, auf ein Förderband legt und auch wieder einräumt. Und zwar die Retoure. Das heißt, wir machen den Pick- als auch den Stow-Vorgang. Das ist das erste Produkt für den E-Commerce Bereich. Das machen wir parallel zum Menschen, das heißt, wir gehen in Brownfield, das heisst in existierende Lagerstrukturen und greifen dort Schuhe, die bis jetzt der Mensch gegriffen hat und auch weiterhin neben uns noch Menschen arbeiten.

MAX:  Okay, kurze Zwischenfrage, also ich will jetzt hier nicht beschreiben, wie der Roboter ausschaut, aber kannst du kurz sagen, wie groß ist so ein Roboter, ungefähr was für eine Form hat er? Denn beim Brownfield kommt er sozusagen auch in bestehende Anlagen und da könnt ihr kein System reinstellen, das 4×4 Meter groß ist.

Frederik Brantner: Genau, man muss sich vorstellen, er ist ungefähr 60 bis 70 cm breit, 1,20 m lang. Damit kommen wir in die klassischen Fachbodenanlagen und Gänge sehr gut rein. Manchmal kann man sogar die Gänge noch ein bisschen enger stellen, um noch mehr Kapazität rauszuziehen. Der Roboter ist ungefähr 1,80 m hoch und kann aber über sich selbst hinausfahren. Das heißt, er kann teleskopieren und wir sind eben kein klassischer Roboterarm. Viele Forschungsinstitute würden das Problem lösen, indem man auf ein fahrerloses Transportsystem einfach einen Arm schraubt.

MAX:  Weil ich relativ unkreativ bin, war das auch mein Ansatz. Und da hätte ich auch später noch zwei oder drei Fragen zu. Aber das wäre tatsächlich das Wettbewerbsmodell. Wieso habt ihr euch dazu entschieden, eine schmale fahrende Litfaßsäule als Entnahmetool in so einer Anlage zu planen?

Frederik Brantner: Weil man anders die Probleme vor Ort nicht lösen kann. Man kann nicht den gesamten Aktionsradius eines Menschen abbilden, das heißt, wir können ganz unten, vom untersten Fachboden, greifen und eben auch auf dem obersten Fachboden von 2,50 m. Wir können schnell rechts und links greifen und das Wichtigste ist, wir müssen sicher parallel zum Menschen sein. Und wenn ich jetzt einen Roboterarm nehme, dann ist es entweder ein sicherer Arm, dann bewegt er sich aber wahnsinnig langsam und dann wirst du niemals einen Business Case haben, der sich rechnet. Oder du musst es in irgendeiner Form einhausen, das heißt, wir fahren gemäß den klassischen AGV-Normen, also fahrerlosen Transportsystemnormen und dann haben wir aber eine eingehauste Kinematik, in der wir sehr schnell greifen können, ohne dass wir Menschen gefährden. Und dadurch schaffen wir es, sowohl den Aktionsradius des Menschen abzubilden als auch in einer Geschwindigkeit unterwegs zu sein, dass ich einen positiven Business Case haben. Und ich glaube, genau daran scheitern eben Systeme. Wenn ich da jetzt einen Arm draufsetzen würden, dann wäre er erstens langsam, weil er sicher sein müsste. Und er wäre auch noch relativ teuer.

MAX:  Und man könnte wahrscheinlich auch nicht so platzsparend wahrscheinlich die Lagerung der Einzelpicks, die ihr macht, wenn ihr durchgeht. Ihr habt sechs oder sieben Lagerfächer, wo ihr Ware zwischenpuffern könnt, so dass eben der Roboter nicht ständig von der Entnahmestelle zur Abgabestelle fahren muss und wieder zurück. Das, könnte ich mir vorstellen, wäre auch noch ein Vorteil.

Frederik Brantner: Genau, wir haben hinten drauf einen Rucksack mit dabei, wie wir es nennen. Da können wir acht Boxen übereinander und zwei nebeneinander lagern. Das heißt, eine Kapazität von insgesamt 16 Schuhkartons, die wir hinten mit dabei haben.

MAX:  Okay, noch ist das Ganze relativ abstrakt. Ich glaube, es wird noch eine Stufe schlimmer, aber am Ende verspreche ich, kommen wir zu einem konkreten Case, oder einen konkreten Anwendungsfall den wir durchsprechen. Ich habe mir zur Vorbereitung eure Homepage angeschaut und habe mir angesehen, aus welchen Elementen setzt sich so ein System bei euch zusammen. Und dann sagt ihr einmal Across, das Gehirn, dann der Machine-Learning-Teil, advanced robotics. Navigation und was natürlich aus meiner Sicht noch dazu gehört, ist Mechanik und die IT-Anbindung. Ich würde mich gerne mal versuchen, durch die Einzelschritte oder die Einzelbereiche ein bisschen durch zu hangeln. Wie funktioniert das Gehirn von so einem Roboter?

Frederik Brantner: Ja, lass mich da vielleicht noch einmal ausschweifen, warum dieses Gehirn wichtig ist und warum es das nach unserer Einschätzung zurzeit noch nicht gibt. Wenn du heute ein Förderband betreiben möchtest oder auch eine komplexere Maschine, dann kannst du zu Siemens gehen und Simatic-Komponenten kaufen, eine klassische SPS und damit das ganze Ding steuern. Wenn du heutzutage einen Roboter bauen möchtest, der durch ein Lager fährt und dort Dinge tut, die bis jetzt der Mensch gemacht hat, dann wirst du dafür keine Software finden. Wenn du rausgehst und sagst, du möchtest in einem Parkhaus einen Roboter bauen, der die Linien, die Markierung, nachmalt, dann wirst du auch dafür keine Software finden. Das heißt, der Softwarestack, das Gehirn, für nicht deterministische Anwendung, also perzeptionsgesteuerte, bildgesteuerte, komplexe, selbstentscheidende Robotik, dafür gibt‘s nichts. Und das ist eigentlich das Langzeitziel, das Fernziel, von Magazino. Währenddessen wir diese Roboter entwickeln, entsteht ein Softwarestack, was all das ermöglicht, eben in dieser komplexen Welt zu agieren und damit davor zu sein. Jetzt versuche ich mal durchzuführen durch die einzelnen Bereiche. Also, wenn ich das Sofwarestack als Ganzes anschaue, dann muss man sich das vorstellen, sind in der Mitte vier Säulen. Diese vier Säulen beschreiben sind semantische Beschreibungen, auf der einen Seite von der Welt, das ist natürlich das WLAN dahinter, da ist die ganze Karte eingebaut, da ist beschrieben, wo ist welches Regal. Also, eine Beschreibung der Welt. Es kann auch sein, dass an einer bestimmten Stelle eingetragen ist, dass es dort heller ist, weil da ein Oberlicht ist und man deswegen schon mal andere Kameraparameter nimmt. Also, erstmal die Beschreibung der Welt ist ganz ganz wichtig und elementar.

MAX:  Kurze Zwischenfrage, ich denke da natürlich an Grundrissdaten und Ähnliches. Merkt euer System, wenn die Beschreibung der Welt als erste Säule nicht ausreichend ist, weil es immer Fehler produziert oder woran merke ich dann später als Betreiber der Anlage, dass ich hier ein Thema habe?

Frederik Brantner: Wir ändern die Karte fortlaufend. Du musst dir vorstellen, die Karte ist meistens durch die Sicherheitslaser plus ein paar Kameras erzeugte Umrisse der Welt. Die ändert sich aber dauernd, weil auf der Höhe, wo die Laserscanner in die Welt schauen, liegen meistens auch Pakete. Das heißt, das Warenlager, allein die Veränderung des Warenlagers, führt dazu, dass die Karte sich ändert.

MAX:  Das heißt, die erste Säule bedeutet nicht das, was alles immer konstant bleibt? Sondern die erste Säule ist das, was die Roboter im Alltag jeden Tag erfassen und verarbeiten?

Frederik Brantner: Und auf der Basis, es gibt in dieser Beschreibung der Welt Dinge, die sind statisch, wie die Regale. Auch die verschieben sich mal so ein bisschen, aber eher über einen langen Horizont. Wände werden sich gar nicht verschieben. Das heißt, es gibt Beschreibungen, WLAN wird wahrscheinlich auch eine ganze Weile konstant bleiben. Es geht darum, in unterschiedlichen Bereichen beschreibe ich die Umwelt. Und es gibt Dinge, die wir immer wieder updaten wie beispielsweise die Karte und manche anderen Sachen sind starr. Das ist die erste Säule. Die zweite Säule ist die Beschreibung der Objekte. Zu verstehen, wie greife ich Gegenstände? Auch Schuhkartons oder auch Kleinladungsträger, denkt man im ersten Moment, gut, die sind quaderförmig, das ist nicht weiter komplex. Die sind unfassbar komplex! Da sind komische Lederapplikationen drauf, Löcher an Stellen, wo man keine haben möchte. Irgendwelche Abstufungen oder ganz schwarz, dass sie alles Licht schlucken. Das heißt, da ein großes Verständnis unter Datenbanken über ganz viele gegriffen Objekte, um die neuen Objekte, die man sieht und antrifft, um die besser zu erkennen und besser greifen zu können. Erste Säule Welt, zweite Säule Objekte, dritte Säule sind die Aufgaben. Auch die Aufgaben, das, was der Roboter tun muss, ist eben nicht Programmcode, sondern sind Daten. Und Daten kann ich verändern, kann sie teilen, kann sie manipulieren und bin dadurch deutlich flexibler. Und der vierte Punkt ist das Bewusstsein des Roboters über sich selbst. Was heißt das? Das heißt, das sind die ganzen Parameter, wie groß bin ich, welche Fähigkeiten habe ich? Wie lang ist meine Achse? Es sind aber auch ganz viele eingestellte kalibrierte Werte. Jeder Roboter, auch wenn er immer gleich gebaut wird, ist ein bisschen anders. Und wenn ich in dieser Welt nun agieren will, wo der Mensch unterwegs ist, muss ich eben die Welt sehen und verstehen, die Umwelt. Ich muss die Objekte verstehen und erkennen. Ich muss die Aufgaben kennen und ich muss aber vor allem auch wissen, was ich selber kann, wie groß ich bin, wie weit mein Arm reicht, Hand-Auge-Koordination. Das sind lauter Dinge, die eben dort mit abgespeichert sind und das sind vier zentrale Säulen. Und jetzt muss man sich vorstellen, von der untersten Ebene, dort befinden sich Treiber, klassische Kameratreiber, Motortreiber, das ist relativ simpel. Dann kommt die zweite Ebene, da sind Roboteralgorithmen drin, Bilderkennung von Objekten, die Kartierung, quasi komplexere Algorithmen zur Navigation. Das findet darin statt. Dann kommt die dritte Ebene, das ist die gesamte Verhaltenssteuerung. Das machen wir mit einem sogenannten Behavior-Tree, ein Verhaltensbaum. Da sollten wir nachher nochmal drauf eingehen. Und dann kommen die nächsten zwei Ebenen, die unteren drei Ebenen, also Treiber, Roboteralgorithmen und Verhaltenssteuerung, läuft auf dem Roboter und dann kommt die erste Ebene, die vierte, die in der lokalen Cloud, also in der lokalen Infrastruktur des Kunden, läuft. Normalerweise in der virtuellen Maschine dort vor Ort, da ist die Anbindung ans WMS, das Warehouse Management System, aber auch beispielsweise das User Interface für den Kunden. Und dann kommt die fünfte Ebene, das ist in der Cloud, in der wirklichen Cloud. Das ist über alle Kunden hinweg, wo eben Informationen geteilt werden und Learning stattfindet und Statistiken drüber laufen. Und jetzt ist ganz wichtig, alle Ebenen sprechen eben die gleiche Sprache dieser semantischen Beschreibung von Welt, Objekte, Aufgaben und Roboter. Und dadurch können die das teilen. Das heißt, etwas, was ich auf der unteren Ebene lerne oder sehe, kann ich bis nach oben hochpropagieren und das, was ich oben lerne über ganz viele Griffe, beispielsweise haben wir 50.000 Schuhkartons gesehen, bei jedem Schuhkarton haben wir ein Bild gemacht, hatten also sogenannte gelabelte Daten, weil wir auch gleich wussten, ob es erfolgreich war oder nicht. Und diese Daten können wir dann nutzen, um besser zu lernen, ein neuronales Netz zu trainieren, wie greife ich komplexe Schuhkartons. Und dieses Lernen kann ich wieder runterpropagieren auf den Roboter.

MAX:  Einen Großteil davon habe ich wahrscheinlich verstanden. Wenn ich mir anschaue, ihr habt unterschiedlichste Arten von Robotern bisher gebaut. Also, wir waren unten im Labor, da habe ich Nummer 47 gesehen. Also, bei mir ist das Bewusstsein manchmal nicht so, dass ich genau weiß, was ich mache und wer ich bin. Aber wie schafft ihr es, dass die Roboter die Daten, die sie generieren und das, was sie lernen, so nenne ich es jetzt mal als Anfänger, dass die das auch, obwohl sie vielleicht minimal unterschiedlich sind bei den unterschiedlichen Kundenanforderungen, dass sie trotzdem ihre Daten vereinheitlicht weitergeben oder abgleichen. Ich weiß nicht, wie der richtige Begriff dafür ist?

Frederik Brantner: Gerade daher, weil wir eben unterscheiden können, was ist roboterspezifisch mit den Daten und den Parametern für den Roboter und was ist generalisierbar. Vielleicht nur mal zum Verständnis, der Roboter generiert 4 GB/min an Daten. Was ist das? Das sind zwei 3-DKameras nach vorne, eine nach hinten. Es sind die Laserscanner, die unten schauen. Es ist eine 2D-Kamera im Greifer, es ist eine 3DKamera im Greifer. Es sind mehrere Time-of-Light-Sensoren. Das ist de facto eine 1-Pixel-3DKamera plus eben die ganzen anderen Werte. Das heißt, all diese Daten, das ist ein Schatz, den ich nutzen kann, den ich aber auch verarbeiten muss. Und vielleicht auch noch ein Fun Fact, der Roboter braucht wie der Mensch die meiste Energie fürs Denken. Also nicht sich fürs Fahren oder für das Heben oder für die Motoren, sondern für den Industrie PC, der da drin ist mit einem E7Rechner, um eben mit dieser Komplexität der Welt klarzukommen. Und wir benutzen fast zwei Kerne von dem Prozessor, nur um zu verstehen, wo wir gerade sind.

MAX:  Jetzt hast du das Gehirn erklärt, später sagst du mit Sicherheit auch noch etwas zum Thema Maschine-Learning etwas, wobei ich hier mit Sicherheit kein Fachmann bin. Was mich interessieren würde ist, wenn wir das jetzt für einen Roboter, der durch eine Handregal-Anlage durchfährt, macht, könnte das gleiche Prinzip sozusagen auch angewendet werden, in dem Fall auf einen Pick-Roboter, der aus einer Kiste pickt oder ist es so spezifisch ausgelegt auf den heutigen Anwendungsfall?

Frederik Brantner: Es ist ein Anspruch von, es zu generalisieren und natürlich ist es immer ein Trade-off, den wir jeden Tag machen müssen. Wie viel machen wir spezifisch für den einen Anwendungsfall und wie viel machen wir generalisierbar? Neben dem ersten Produkt für E-Commerce und da spezifisch für Schuhe ist unser zweites Produkt Soto für die Versorgung der Produktionslinie mit Kleinladungsträgern. Das heißt, das, was heutzutage klassischer Routenzug macht, machen wir dort mit Soto holen bei irgendeiner Quelle, sei es ein Förderband oder eine Fachbodenanlage, die Kleinladungsträger ab und bringen die an eine Senke, beispielsweise im Schrägschacht Flow-Rack Regal und der große Vorteil ist, wir können eben von jeglicher Quelle aufnehmen, zu jeglicher Senke auf unterschiedlichen Höhen. Das können die meisten fahrerlosen Transportsysteme nicht. Und wir bringen wieder die Vision, also die Bilderkennung, mit, damit wir eben robust sind. Weil die Welt verändert sich, das Schrägschachtsystem ist ein bisschen anders. Und der Roboter nutzt im großen Stile die gleiche Software. Das heißt, fahren, erkennen, wo ich gerade bin. Das Verständnis der Welt, da ist sehr viel gleich.

MAX:  Okay, kann ich nachvollziehen. Also, ich glaube, da ist ein riesen Potenzial. Nicht nur für unsere Firma, sondern insgesamt ist der Markt da mit Sicherheit groß. Um die Hörer und vor allem mich nicht zu überfordern, musst du vielleicht versuchen, noch zu erklären, wie ihr in den Bereichen Machine Learning versucht, das Gehirn respektive den Fortschritt zu unterstützen.

Frederik Brantner: Wir können mal ein einfaches Beispiel machen. Schuhkartons sind alle unterschiedlich und man kann vor so einen Schuhkarton hinfahren und macht davon ein Bild. Also ich fotografiere von vorne mit einer 2-D Kamera und mit einer 3DKamera einen Schuhkarton. Dann versuche ich das Ding zu greifen. Ich fahre also mit meinen 6 Saugnäpfen, die ich habe, nach vorne und versuche, dort ein Vakuum aufzubauen und das Ding zu greifen. Wir überwachen jeden einzelnen Saugnapf. Und danach wissen wir, welcher dieser Saugnäpfe war erfolgreich und welcher nicht. Das heißt, wir haben ein Bild mit den gelabelten Daten, wo an der Stelle des Bildes konnte ich gut greifen, an welcher Stelle konnte ich nicht greifen.

MAX:  Also zum Beispiel wo war der Karton irgendwie weicher und deswegen ist da mehr Luft?

Frederik Brantner: Oder wo ist der Deckel.

MAX:  Das heißt, ihr fotografiert den Schuhkarton, der fährt hin, ihr habt drei Saugnäpfe und zwei greifen gut, ein dritter überhaupt nicht. Das heißt, ihr wisst wahrscheinlich, bei diesem Schuh wird es tendenziell öfter so sein. Und wenn ihr es öfter messt, lernt oder?

Frederik Brantner: Genau, der erste wichtige Punkt ist, wir haben gelabelte Daten. Warum sind gelabelte Daten wichtig? Du musst dir vorstellen, was ist ein klassisches Beispiel? Man möchte dem Computer beibringen, zwischen Hund und Katze zu unterscheiden. Dann gibt man ihm ganz viele Hundebilder und ganz viele Katzenbilder. Man sagt aber, das sind die Hundebilder und das sind die Katzenbilder. Und dann kann der quasi irgendwann das sehr gut auseinanderhalten. Ich muss das aber sagen. Und dieses Labeln von Bildern ist auch heute noch in dem gesamten KI Bereich gibt es quasi ganz viele Menschen, die irgendwo sitzen und erstmal Daten manuell beschreiben oder Dinge darin einzeichnen oder bewerten. Der Mensch hilft witziger Weise bei Google, wenn er manchmal „Are you human“ oder „Are you a robot?“ da etwas angeben muss. Dann unterstützt er dieses Lernen, weil er quasi diese Tätigkeit wahrnimmt.

MAX:  Ja, ich finde die Frage da meistens, aber nicht immer, offensichtlich.

Frederik Brantner: Genau und quasi ist der Roboter im Vorteil, weil er währenddessen etwas tut, über andere Wege rausfinden kann, ob es erfolgreich war oder nicht und das abspeichern kann. Jetzt haben wir quasi vorstellungsweise 50.000 solcher Bilder und diese 50.000 Bilder können wir dann nutzen, um ein Netz zu trainieren, aus dem man eben später, wenn er auf ein Bild schaut, was er nicht kennt, ein Karton, den er davor noch nicht gesehen hat, trotzdem erkennen und Vorhersagen geben kann, an welcher Stelle er greifen sollte. Und damit optimieren wir den Griff. Jetzt muss man sich vorstellen, das ist jetzt ein Beispiel von vielen, nur beim Greifen! Das gibt es beim Fahren, das gibt es bei vielen Stellen. Und das ist eben der große Wandel, die Leute früher, wenn du Technologie gekauft hast, hast du ein Förderband gekauft, hast am Tag 1 angemacht und wusstest, das läuft jetzt mit 3 m/s die nächsten 20 Jahre durch. Wir gehen zum Kunden und sagen, wir fangen jetzt gemeinsam an. Und am Anfang, aus Erfahrungswerten, schaffend wir so und so viel Schuhkartons pro Stunde, Kleinladungsträger pro Stunde. Was wir aber über die Zeit sehen ist, dass der Roboter schneller wird, er wird zuverlässiger, weil er viele Cornercases, wo der Mensch Blödsinn gemacht hat oder sich selber der Roboter verhaspelt, weil es sehr schwierig ist, er plötzlich erkennt und ausgleichen kann. Und er kann auch noch mehr Objekte, weil er komplexere Sachen tun kann. Das heißt, Software ist der ganz große Treiber und auch die Daten, den Roboter schneller robuster und mehr Objekte handeln zu lassen.

MAX:  Also, da glaube ich sofort dran. Ich glaube, dass es im Vertrieb manchmal nicht ganz so easy ist, weil man da ja auch Menschen braucht, die daran glauben. Wenn die sich auf so ein Wagnis einlassen. Ich kann nur sagen, aus unserer Erfahrung ist dadurch, dass wir unsere Auto-Storeanlage, die wir haben, eine Betreibersoftware hat oder eine Software, die die Roboter steuert und da auch dazugelernt hat. Und jedes Mal, wenn ein System wirklich einen Fehler sieht oder da passiert etwas, dann profitieren von dem Bugfix alle. Und da ist unserer Leistung auch über die Jahre immer schneller geworden. Hätte ich nie gedacht, aber das ist heute für mich einer der größten Vorteile von einem standardisierten System, wo eine Software drauf läuft. Deswegen finde ich den Ansatz von euch so spannend zu sagen, wir wollen das auch standardisiert in einem System lassen, weil so auch alle davon profitieren. Also, den Ansatz kann ich sehr gut nachvollziehen.

Frederik Brantner: Ja und vielleicht zum Markteinstieg. Wir sind ja jetzt nicht jemand, der morgen zu dir geht und sagt, kaufe bitte 30 Roboter und statte damit dein komplettes Lager aus, sondern wir gehen in Bestandsanlagen. Und da haben wir glaube ich als erstes Mal den Vorteil, dass wir Automatisierungen nicht mehr in Null und Eins denken müssen, auch bei dem Autostore hast du natürlich Sachen nebendran, aber du musst trotzdem entscheiden, ein großes Autostore in der Form zu bauen. Und wir gehen hin und sagen, das ist eine Bestandsanlage, das sind Fachboden. Da arbeiten ganz viele Menschen und wir schieben jetzt, weil du einfach keine Menschen mehr findest, mal einen Roboter mit dazu. Und der arbeitet mal mit, dann lernt er sich da ein, lernt sich irgendwann kennen und arbeitet mit und wenn dann die Geschwindigkeit halbwegs passt und du sagst, das geht gut, dann kann man den nächsten Roboter mit dazu schieben. Und dadurch hat man eine flexible modulare Automatisierung und deswegen ist auch dieses Kriterium, dass es von Tag 1 alles perfekt funktionieren muss, nicht ganz so stark. Weil ich einfach gemeinsam lernen kann.

MAX:  Und weil es zusätzlich ist. Selbst, wenn es mal einen Tag nicht funktioniert, bringe ich meine Ware trotzdem noch aus dem System raus. Bevor wir auf die Beschreibung von einem konkreten Case gehen, würde mich noch interessieren, der letzte Bereich ist die Navigation und dann die IT-Anbindung. Die IT-Anbindung würde ich gerne bei dem Case beschreiben. Zum Thema Navigation, wie funktioniert das und was mich natürlich interessieren würde, wie sprechen die Roboter untereinander, wenn irgendwo eine Palette im Weg steht?

Frederik Brantner: Also, fahrerlose Transportsysteme waren lange Zeit spurgeführt, mittlerweile ist es eigentlich Standard, dass sie in die Welt schauen, sich selber eine Karte bauen und navigieren. Um ein bisschen fachspezifischer zu werden, muss man unterscheiden zwischen Lokalisierung, wo bin ich und Navigation, wie komme ich von A nach B. das sind zwei getrennte Themen. Lokalisierung heißt, ich baue eine Karte auf, schaue in die Welt, merke mir diese Karte und wenn ich irgendwo bin, schaue ich wieder in die Welt und weiß über Triangulation, über die Punkte, wo steht ich jetzt. Da ist es wichtig, dass die Karte präzise ist, dass sie andauernd upgedatet wird und an der Qualität der Karte erkennt man auch, wie gut danach die Lokalisierung ist. Das ist immer noch nicht ganz einfach, wenn du dir vorstellst, du bist in einer Fachbodenanlage und jede Regalzeile könnte erstmal gleich aussehen. Da ist eben sehr wichtig, dass du möglichst viele Featurepunkte, also Merkmale, Bildpunkte hast, über die du dann abgleichen kannst, damit du sicher weißt, wo du bist. Und natürlich kommen dann Dinge dazu wie Odometrie, also Bewegung der Räder und auch eine IMU, also Initial Measurement Unit, das ist quasi das, was man auch im Handy hat, um quasi wie so einen, wenn man sich bewegt, dann weiß er, in welche Richtung man das Ding bewegt hat. Früher hat man das mit so Kreiselkompassen gemacht. Darüber weiß ich die Position und dann gibt es den zweiten Teil, die Navigation. Und da haben wir unterschiedliche Navigationsmodi. Das eine ist die freie Navigation, das heißt, ich weiß, von A nach B muss ich kommen. Da wird meistens auch noch mal irgendwie ein Straßennetz, das darübergelegt ist, damit es effizienter wird. Wir glauben aber, dass es nicht ausreicht, wenn ich in einer Fachbodenanlage bin. Weil ich in einer Fachbodenanlage mit schneller Geschwindigkeit an einer geschlossenen Kontur entlangfahren möchte. Normalerweise würden die Laserscanner die ganze Zeit sagen, links und rechts ist ein Hindernis, es könnte ein Mensch sein, also muss ich ganz ganz langsam fahren. Mit sicherer Geschwindigkeit da durchzufahren, dann hast du auch wieder keinen Business Case. Wir müssen also sicher erkennen, dass rechts und links eine Fachbodenanlage ist und wir deswegen mit hoher Geschwindigkeit geradeaus fahren dürfen. Das ist nochmal ein bisschen komplexer, wir nennen das Ganze Wallsurfing. Das heißt, wir docken uns optisch an eine Wand an und rasen an der entlang und damit lösen wir das Problem. Und damit können wir lokalisieren und dann navigieren.

MAX:  Bevor wir zum Case kommen, hast du vorhin noch den Begriff geprägt: Behavior Tree. Was bedeutet das genau in eurem Fall?

Frederik Brantner: Es ist ein Verhaltensbaum, kommt aus der Computer-Spielecke. Und zwar muss man sich vorstellen, bei Computerspielen gibt es sogenannte Non-Playing-Characters, also du spielst den Computerspieler, der durch die Gegend läuft und schießt. Und da gibt es irgendwelche Menschen da drin, Computer-Spielfiguren, die vom Computer gespielt werden. Stell dir einen Schmied vor, der schmiedet, und wenn eine Schulklasse vorbeiläuft, soll er winken und wenn du als Krieger kommst, dann soll er schießen. Das ist eine komplexe Beschreibung des Verhaltens eines animierten Charakters. Und das haben wir übertragen auf das Verhalten eines Roboters. Warum ist es wichtig? Weil eben ein Roboter zur gleichen Zeit ganz ganz viele Einflussfaktoren hat, ganz viele Bilder, ganz viele Sensoren, ganz viel Wissen, alles in Abhängigkeit ist, alles gleichzeitig. Und mit dem muss man klarkommen. Und da ist eben diese Beschreibung über einen Verhaltensbaum nach unserer Meinung eines der besten Mittel, um dieser Komplexität Herr zu werden, auch ums danach nochmal zu analysieren uauch um es verständlich zu machen, wo man gerade steht. Wir haben da zum Teil ein Patent drauf angemeldet und damit löst man Teil einen Teil dieser hohen Komplexität auf einer dritten Schicht, wie ich vorhin schon gesagt habe, wo eben diese ganzen Dinge zusammenkommen und man den Roboter in zuverlässiges Verhalten bringen muss.

MAX:  Okay, kann ich nachvollziehen. Habe ich beim Computerspielen noch nie drüber nachgedacht. Aber das ist wahrscheinlich auch Sinn des Ganzen. Mich würde jetzt interessieren, wie sieht ein konkreter Anwendungsfall für eure Roboter aus? Was hättet ihr gerne für Kunden, wer könnte sich da melden und wenn wir das haben, würde ich gerne ein bisschen noch über einen Projektablauf sprechen, wie sowas ausschaut.

Frederik Brantner: Wir hätten am liebsten gerne alle E-Commerce Kunden, die Schuhkartons verschicken, kann auch B2B sein, aber Schuhkartons sind deswegen gut, weil sie eine extrem breite SKU-Breite haben. Das heißt, keiner kauft ein gleiches Paar Schuhen in der gleichen Größe und der gleichen Farbe. Es gibt sehr viele unterschiedliche Artikel, sie sind relativ sperrig und sind mit klassischen Systemen nicht so richtig handelbar. So ein klassisches Autostore ist eigentlich zu klein, um dafür viele Schuhe reinzustecken. Die macht man in einer Fachbodenanlage. Und auch Systeme wie Kiva oder Greyorange, die ein ganzes Regal nach vorne bringen, da passen auch nicht so viele Schuhe auf so ein Regal, deswegen macht es auch nicht so viel Sinn. Das ist wirklich ein sweet spot von unseren Robotern, das wird zurzeit alles in Fachbodenanlagen gemacht, wahnsinnig aufwendig, brauchst du viele Leute für. Da können wir mit Robotern einfach helfen.

MAX:  Was für Voraussetzungen habt ihr für die Bodenbeschaffenheit, wenn ihr auf eine Brownfield-Anlage reingeht? Also ganz kurz zur Erklärung vielleicht: Brownfield heißt, da steht etwas und man versucht es zu automatisieren. Und man nutzt die Technik, die drinsteht, also eine Handregalanlage oder Fachbodenregalanlage oder wie auch immer.

Frederik Brantner: Eigentlich haben wir keine, wir haben keine hohe, genau das ist ja die Besonderheit. Der Roboter fährt durch die Welt, wo bis jetzt Menschen waren und muss jedes Mal wieder schauen. Und wenn das an der Stelle ein bisschen schräger ist, dann schaut er halt nach, erkennt den Schuhkarton trotzdem und kann den dann greifen. Natürlich haben wir bestimmte Anforderungen an die Höhe des Fachbodens, wir können nicht ganz unten greifen, aber auf 7 cm über dem Boden ist normalerweise der erste Fachboden, kommen wir dran. Wir müssen schauen, wo oben eine Sprinkleranlage ist in einem klassischen Pick Tower ist dann irgendwann oben auch Ende, sonst fahren wir gegen den Sprinkler. Aber sonst sind wir relativ frei und haben keine hohen Anforderungen an die Umgebung.

MAX:  Von den Logistikzahlen, die ein Roboter schafft, also damit auch ein Kunde sich vorstellen kann, wie viele Roboter er denn bräuchte. Kannst du hier mal ein bisschen ein Zahlenwerk nennen?

Frederik Brantner: Ja, vielleicht für den E-Commerce Bereich. Da ist der Mensch normalerweise bei 80 bis 90 Picks pro Stunde und wir liegen so bei 40 bis 50 Picks pro Stunde. Das heißt, wir sind noch langsamer, aber dadurch, dass wir insgesamt pro Stunde viel weniger kosten als der Mensch, sind wir günstiger im Cost pro Pick als der Mensch. Können wir gleich nachher nochmal dazu kommen, zum Business Case. Der der zweite Markt, du hattest ja gefragt, welche Kunden uns interessieren, ist neben dem E-Commerce vor allem die Produktionsversorgung. Also jeder, der heute Kleinladungsträger von irgendwelchen Quellen zu Senken bringt und das Aufwendig mit irgendwelchen Pickwägen oder Routenzügen macht, und das siehst du in jeder Automobil-Industrie, bei jedem großen Player, z. B. ein großer Hersteller weißer Ware ist da ein Kunde von uns. Die machen es für die Waschmaschinenfertigung. Dort brauchen die ganz viele Teile, die werden mit dem Shuttlesystem von Servus an einen Satellitenbahnhof gebracht. Das heißt, für die langen Strecken machen wir gar nicht, wir machen die Feinverteilung vor Ort. Das, was zurzeit halt Mensch machen muss. Er muss schauen, liegt da schon ein KLT, kann ich unten eine Leer-KLT aufnehmen, oben einen vollen abgeben? Und das löst hier eigentlich kein automatisiertes System bis heute und vor allem nicht zuverlässig, wenn sich andauernd die Welt ändert oder das ganze Ding sich ein bisschen verschiebt.

MAX:  Okay, bezüglich den Handregalen/Brownfield wäre jetzt noch meine Frage, wenn ich eine mehrstöckige Regalanlage habe, habt ihr schon Szenarien oder habt ihr etwas geplant, wo auch die Roboter die Ebenen wechseln können?

Frederik Brantner: Wir können tendenziell in den Aufzug fahren, meistens sind dies Kundenanlagen so groß, dass ich auch Abgabestellen oben habe. Und deswegen macht es Sinn, einen Roboter auf einer Ebene fahren zu lassen und wir haben natürlich eine Anforderung, dass pro Quadratmeter Flächenlast, zurzeit sind wir noch bei 300 Kilo pro Quadratmeter, die ich reichen muss, manchmal sind die bei 250 Kilo, es kommt auf die Fachbodenanlage an, ob wir schon oben fahren dürfen oder noch nicht.

MAX:  Okay, wie viel wiegt ein Roboter?

Frederik Brantner: Ich glaube, 280 Kilo, aber eben verteilt auf eine entsprechende Fläche, die größer ist als 1 m².

MAX:  Bevor wir zu dem konkreten Business Case kommen, würde mich interessieren, aus welchen Komponenten besteht so ein Gesamtsystem? Das heißt, ihr habt mehrere Roboter, die herumfahren? Ich habe einen Server, ich hab eine Steuerung vor Ort. Brauche ich irgendwelche Peripherie-Technik noch, oder?

Frederik Brantner: Also, wir haben immer den Anspruch, uns an die existierende Welt anzupassen. Viele Kunden haben beispielsweise Pickwägen im Einsatz, wo der Mensch reinpickt und dann holen wir einfach die Schuhkartons aus dem Regal raus und bringen es auch zu so einem Pickwagen. Wenn jemand ein Förderband hat, können wir es auf einem Förderband abgeben. Da sind wir relativ frei.

MAX:  Wie sieht die Verbindung aus zum WMS respektive zu den einzelnen Quellen, Senken, Ähnlichen?

Frederik Brantner: Ja, es gibt meist oder immer ein bestehendes WMS, wo ich heute schon Aufträge für den Menschen kreiere. Der Auftrag an den Menschen heißt auch, gehe zu Regal 4711 und hole dort in Artikel 552 ab. Und in der gleichen Form bekommen wir das eigentlich auch. Idealerweise bekommen wir ein größeres Batch, damit wir es für uns, für den Roboter, optimal batchen können. Da sind die Prozesse ein bisschen anders als ein Mensch, der durchläuft. Und idealerweise haben wir eine enge Anbindung an das WMS, weil wir natürlich viel mehr Daten zurückliefern können. Wir erzeugen ja ganz viele Bestandsdaten, wir vermessen jedes Mal nochmal jeden Karton. Das heißt, Größe, Breite, Länge können wir nochmal zurückgeben. Wir geben eigentlich eine fortlaufende Inventur zurück, weil wir andauernd, wenn wir durch die Gegend fahren, ganz viele Artikel sehen. Ein Mensch scannt ja nicht jeden einzeln, das macht er nur einmal zur Inventur. Wir machen beim Durchfahren sehen wir natürlich auch die anderen und das heißt, das Austauschen von Informationen zwischen uns und dem WMS hilft auch dem WMS, um bessere Daten zu haben für andere Prozesse.

MAX:  Jetzt habe ich vorher den Fehler gemacht und habe den Begriff WMS nicht erklärt. Also, Warehouse Management System/Lagerverwaltungssystem. Das heißt aber, wenn ihr gerne Batches hättet von 50er Aufträgen, die die nächste halbe Stunde zu kommissionieren sind, das heißt aber, dass ihr auch ein kleines Warehouse Managementsystem zur Vorplanung der einzelnen Roboter habt oder wie kann man sich das vorstellen?

Frederik Brantner: De facto ja. Natürlich ist in der virtuellen Maschine beim Kunden vor Ort findet eine Verarbeitung der Aufträge statt. Und es kann ja auch mal was passieren, dass der Roboter schaut und sieht, dieses Objekt kann ich nicht greifen. Entweder ist es zu groß oder es ist so komisch hinter dem Pfeiler gelegt, dass es nicht geht. Und dann muss ich auch wieder zurückspielen können an den Menschen und sagen, das Objekt ging nicht und es springt wieder auf die menschliche Pickliste. Das ist das Schöne. Das heißt, wenn der Roboter auch mal Dinge nicht kann, kann er trotzdem, weil er parallel zum Menschen arbeitet, Dinge einfach an den Menschen wieder abgeben.

MAX:  Das macht durchaus Sinn, weil ich auch flexibel bin und flexibel reagieren kann oder das System reagiert für mich. Dann würde ich jetzt Folgendes vorschlagen. Und zwar kommen wir zu den letzten beiden Punkten. Also, wenn ich jetzt zum Beispiel sage, ich würde gerne Trachtenschuhe online verkaufen und habe da zufällig noch eine alte Handregalanlage bei uns in Dachau stehen, wie könnte so ein Projekt ausschauen? Also, kannst du bitte mal beschreiben, auch inklusive den Zeiträumen, die ihr braucht, wenn ihr zu so einer Ausschreibung, zu so einem Pitch dazukommt, wie das ausschaut und dann auch bisschen konkret ein paar Zahlen dazu, was sowas kosten kann und was es einspart.

Frederik Brantner: Ja, also normalerweise kommen die Kunden auf uns zu oder wir sind im Kundengespräch. Wir gehen und schauen uns gemeinsam die Struktur vor Ort an, schauen uns das Lager an, sagen okay, da passen vier Roboter gut rein und man schaut sich an, wie viel Picks pro Tag laufen da eigentlich. Man muss schon ehrlich sagen, wenn du jetzt der lokale Schuhhändler um die Ecke bist und du würdest jetzt 100 Paar Schuhe am Tag verkaufen, dann macht natürlich ein Roboter keinen Sinn.

MAX:  In dem Fall wäre es ein Trachtenschuh-Imperium.

Frederik Brantner: Genau, das Trachtenschuh-Imperium beliefern wir natürlich sehr gerne! Schauen wir uns die Strukturen vor Ort an und dann gibt‘s normalerweise haben wir zurzeit eine relativ lange Lieferzeit von 8 bis 9 Monaten, bis wir dann vor Ort das erste Mal einen Roboter on the ground haben. Davor finden natürlich viele Projektierungssachen statt. Man überlegt sich, wie sind die Prozesse, kann man sich einfach in die bestehenden Prozesse sinnvoll integrieren, muss man was beim vor- oder nachgelagerten Prozess anpassen, so dass es möglichst effizient ist. Wir starten meistens mit einem Pilotprojekt mit 2 bis 3 Robotern, schieben die ersten 2 bis 3 Roboter in sogenannte Sandkästen, wo sie mal vor sich her arbeiten und wenn das dann funktioniert, macht man die Anbindung ans Warenwirtschaftssystem. Wenn das funktioniert, lässt man die erste freie Fläche und erweitert dann die freie Fläche Stück für Stück.

MAX:  Ich würde wahrscheinlich die Anbindung ans WMS davor testen und prüfen, weil das einfach unsere Erfahrung nach immer das Komplexeste ist.

Frederik Brantner: Genau, das macht man in der Projektierung zum Teil, bevor die Roboter kommen. Dann kann man gegen eine Dummie-Schnittstelle testen.

MAX:  Und ihr habt eine Dummie-Schnittstelle und ihr habt auch im Zweifel Entwickler, die zum Kunden kommen und das gemeinsam weiterentwickeln, falls es Sachen gibt, die der Kunde nicht liefern kann. Also, in dem Falle ich oder die ihr gerne zusätzlich entwickeln wollt?

Frederik Brantner: Ja, wir haben viele WMS-Systeme schon angebunden und wir haben von den sehr rudimentären Anbindungen bis hin zu sehr komplexen, wo eben auch viele Daten ausgetauscht werden, viel gemacht. Wir haben auch leider Kunden, die uns beispielsweise keine Größeninformationen über die Objekte liefern können. Das führt dazu, dass der Roboter es jedes Mal ein bisschen komplizierter nachschauen muss, damit er richtig versteht, was liegt da eigentlich? Wie ist der Stapel da vor mir? Wir können ja nicht nur von oben vom Stapel nehmen, sondern auch unten etwas rausziehen. Und um das sinnvoll zu machen, brauche ich viele Vorinformationen, die erzeugen wir uns dann zum Teil aber auch selbst.

MAX:  Okay, wenn ich jetzt den familieninternen Pitch vorbereiten will, was muss ich investieren für die Trachtenschuhlogistik, was muss ich da einkalkulieren als letzte Frage?

Frederik Brantner: Genau, wir haben natürlich so ein paar Projektierungskosten wie die Schnittstelle und die Einbindung am Anfang und dann haben wir aber, glaube ich, ein ganz gutes Modell für die Kunden. Wir verkaufen die Hardware ziemlich at cost, das sind 55.000 € pro Roboter. Und danach die Software ist ein pay per pick Modell. Das heißt, an der Hardware verdienen wir gar nicht so viel Geld, sondern die Marge machen wir über die Software, danach eben pro Pick. Warum machen wir das so? Weil wir auch die enge Bindung über die Zeit für den Kunden haben wollen, weil wir mit davon profitieren wollen, wenn der Roboter über die Zeit schneller wird. Für den Kunden ist es am Anfang günstig und wenn er halt schneller wird, dann ist der cost pro pick immer noch billiger wie der Mensch. Nur wir profitieren halt auch davon, wenn der Roboter schneller wird und besser. Und wir haben eine enge lange Bindung zu den Kunden und die ist glaube ich wichtig, weil es eben nicht so ist, dass ich ein Förderband ausliefere, es anmache und dann für alle Zeit funktioniert, sondern der Roboter lernt über die Zeit, er wird besser und wir müssen auch diesen Austausch konstant haben, dass der Kunde versteht, was passiert da.

MAX:  Okay und jetzt noch als letzte Ergänzung. Wenn ich noch irgendwo anders einen zweiten Schuhhandel aufmachen will, brauche ich aber keine zweite Anbindung und keine zweite Schnittstelle, sondern das wäre einfach eine weitere Instanz, wo ich Roboter kaufe, die dann pay per pick abgerechnet werden?

Frederik Brantner: Genau. Und der große Vorteil dieser Technologie ist wirklich, du kannst ihn von einem Lager zum anderen schieben. Die ganzen Logistikdienstleister und das ist jetzt nicht nur auf Schuhe bezogen, auch in der Produktionsversorgung. Und immer, wenn wir solche Form von Robotik sprechen, bist du plötzlich in der Lage, die von einem Lager ins andere zu bringen. Du kannst plötzlich für einen bestimmten Zeitraum mehr reinschicken, das heißt, die ganze Flexibilität, die du gerade als Logistikdienstleister hast, wo du kurze Vertragslaufzeiten evtl. mit deinem Kunden hast, die konntest du mit bestehender Technik eigentlich lösen. Es wird immer weiterhin noch ganz viele Shuttlesysteme und andere Systeme geben, die man baut, die machen auch viel Sinn. Wir sind gar nicht die Konkurrenz zu denen. Wenn du weißt, dass du so zehn Jahre genau das so machst, dann macht wahrscheinlich das eine oder andere System sehr viel Sinn. Wenn du aber kurze Vertragslaufzeiten hast, viel Flexibilität hast, viel Parallelität zu Menschen, dann machen Roboter, die so agieren wie ein Leiharbeiter, sehr viel Sinn.

MAX:  Okay, ja, eigentlich schon eine super gute Zusammenfassung. Bevor ich dir nochmal kurz das Wort übergebe, wollte ich sagen, ich finde es vor allem super, dass wir solche Startups und Firmen wie Magazino auch hier in München haben. Weil ich schon der festen Überzeugung bin, dass es noch viele Nischen gibt, wo man auch gut reinwachsen kann und ich finde, ihr macht das super. Natürlich jetzt in dem Fall für meine Hörerinnen und Hörer, das Produkt ist wirklich komplex. Es ist auch nicht einfach zu beschreiben, aber ich hoffe, wir konnten einen kleinen Einblick geben und für alle zukünftigen Folgen oder wenn mir noch jemand eine E-Mail dazu schreiben will, soll er einfach an max@supplychainhelden.de schreiben. Vielleicht können wir auch irgendwann nochmal eine zweite Folge machen, wo wir auf einzelne Bereiche in der Tiefe eingehen und ja, super spannendes Interview. Vielen Dank.

Frederik Brantner: Vielen Dank für deinen Besuch.

 

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.