Alles was sie benötigen ist ein Raspberry Pi, ein Raspberry Pi Camera Module und eine funktionierende Internetverbindung mit einem Browser!
Mit der PiCockpit Video Streaming App können Sie die Leistungsfähigkeit Ihrer Raspberry Pi Kameras wie nie zuvor ausnutzen.
Egal, ob Sie sie für Sicherheitszwecke, zur Überwachung von Live-Feeds oder sogar als Qualitätskontrollinstrument verwenden, die Möglichkeiten sind endlos.
Von Einzelhandelsgeschäften bis hin zu Büroräumen kann der Zugriff auf Echtzeit-Videobilder die Sicherheitsmaßnahmen und die betriebliche Effizienz erheblich verbessern.
Überwachen Sie den Kundenverkehr, sorgen Sie für die Sicherheit am Arbeitsplatz oder behalten Sie einfach den Bestand im Auge - alles bequem über eine zentrale Weboberfläche mit PiCockpit.
Sie können die App auch für das Veranstaltungsmanagement, die Gebäudewartung oder die Optimierung des Kundendienstes nutzen.
Die App befindet sich derzeit in der Beta-Phase, aber wir arbeiten unermüdlich daran, die Nutzung so angenehm wie möglich zu machen.
Nutzer des kostenlosen Tarifs haben mit der PiCockpit Video Streaming App Zugriff auf 30 Minuten Videostreaming täglich und das von verschiedenen Kameras.
Dies ermöglicht es Ihnen, die Funktionen der App zu erkunden, ohne dass Sie eine finanzielle Verpflichtung eingehen.
Wenn Sie jedoch unbegrenzten Zugang und erweiterte Funktionen wünschen, ist ein Upgrade auf den PiCockpit Pro Plan die richtige Wahl.
Mit dem Pro Plan können Sie unbegrenztes Videostreaming über so viele Kameras wie nötig nutzen, was sowohl Flexibilität als auch Skalierbarkeit bietet.
Registrieren Sie sich für PiCockpit und beginnen Sie noch heute mit dem Videostreaming!
Egal, ob Sie ein Unternehmen haben, das robuste Überwachungslösungen oder eine Produktüberwachung benötigt, unsere neue App deckt Sie ab.
Und wir haben das Videostreaming auf einer Vielzahl von Raspberry Pi-Modellen getestet, um sicherzustellen, dass das Videostreaming nicht nur auf die neuesten Modelle beschränkt ist.
Die App funktioniert sowohl mit MIPI-Kameras als auch mit USB-Kameras.
Wie Sie sicher schon bemerkt haben, haben wir bei PiCockpit neben der Video Streaming App an einer Reihe von neuen Features gearbeitet. Wir laden Sie ein, die neuen Funktionen auf unserer Homepage zu entdecken, die wir in Kürze vorstellen werden. Bleiben Sie dran für mehr!
]]>Ursprünglich für Anwendungen in der Automobilindustrie entwickelt, hat der CAN Bus (Controller Area Network) nahtlos in den industriellen Bereich Einzug gehalten und bringt sein robustes und effizientes Kommunikationsprotokoll in komplexe Automatisierungssysteme ein.
Doch wie konnte der CAN Bus eine regelrechte Revolution in der Automatisierung einleiten?
Der CAN Bus ist ein Kommunikationssystem, das speziell für die Vernetzung von Mikrocontrollern (und damit verbundenen Geräten) in Fahrzeugen und in der Automatisierungstechnik entwickelt wurde, aber auch in anderen Bereichen zum Einsatz kommt.
Der CAN Bus ermöglicht es verschiedenen Steuergeräten und Komponenten, miteinander zu kommunizieren, ohne dass dafür ein zentrales Computermodul erforderlich ist. Hier sind die grundlegenden Prinzipien seiner Funktionsweise.
Durch diese Eigenschaften ermöglicht der CAN-Bus eine robuste und effiziente Kommunikation zwischen verschiedenen Steuergeräten in komplexen Systemen, insbesondere in Umgebungen, in denen Zuverlässigkeit und Echtzeitfähigkeit entscheidend sind.
Grund für die Beliebtheit des CAN bei industriellen Anwendungen sind diverse Vorteile gegenüber anderen Kommunikationsprotokollen.
Zusammenfassend lässt sich sagen, dass die CAN Bus Technologie nicht nur die aktuellen industriellen Automatisierungssysteme verbessert, sondern auch den Weg für die Zukunft der intelligenten Fertigung und Industrie 4.0 ebnet. Ihre Mischung aus Zuverlässigkeit, Effizienz und Anpassungsfähigkeit macht sie zu einem unverzichtbaren Werkzeug in der modernen industriellen Automatisierung.
Um Erfahrungen mit dem CAN Bus zu sammeln oder auch um sein Verständnis zu vertiefen ist der Raspberry Pi als Plattform hervorragend geeignet.
Wir bieten ein umfangreiches Sortiment an CAN Boards für Raspberry Pi, Raspberry Pi Zero und Raspberry Pi Pico an.
Damit können Sie beispielsweise den Pi oder Pico and den CAN Bus Ihres Autos anschließen und wichtige Daten in Echtzeit auslesen.
Doch auch für das Auslesen von Sensornetzwerken eignen sich die PiCan Boards hervorragend.
]]>endlich ist es soweit: Die Gehäuse in schwarz sind heute angekommen.
Daher können wir Euch die BLACK Edition vom Raspberry Pi 5 anbieten!
In diesem Set ist das offizielles Raspberry Pi 5 Gehäuse und das Raspberry Pi 27 W USB-C PD Netzteil (EU) (offizielles Raspberry Pi 5 Netzteil) in einem stylischen schwarz dabei!
Ein kleiner Hinweis noch: In der BLACK Edition ist das CAT6 Kabel in 3m Länge im Set erhalten, da wir die 2m CAT Kabel leider nur in weiß auf Lager haben. Daher sind die Sets mit dem CAT6 Kabel ein kleines Stückchen teurer. Nur damit Ihr Euch nicht wundert.
Falls Ihr doch die weiße Variante kaufen möchtet. Diese findet Ihr hier: https://buyzero.de/collections/raspberry-pi-5-und-zubehoer/products/raspberry-pi-5.
Auf der Seite haben wir auch alle Varianten, die wir vom Pi 5 anbieten. Die Black Edition hat etwas weniger Varianten.
Wir freuen uns auf Eure Bestellungen.
Liebe Grüße aus Leipzig,
Stephie & Alex
Ein Weg dem Energieverbrauch durch Datenübertragung entgegenzuwirken ist das sogenannte Edge Computing.
Edge Computing bezeichnet die Datenverarbeitung direkt am Entstehungsort der Daten, also am Rand des Netzwerks. Dadurch wird die Reaktionszeit verbessert und die Datenmenge, die zum zentralen Rechenzentrum übertragen werden muss, reduziert.
Ein weiterer Vorteil des Edge Computing ist erhöhte Sicherheit und Privatsphäre. Beispielsweise können Daten in Echtzeit erfasst werden und lokal von einer KI ausgewertet werden. So werden kein persönlichen Daten gespeichert oder durch das Netzwerk geschickt.
Eine Smart City ist eine Stadt, die Informations- und Kommunikationstechnologien nutzt, um die städtische Infrastruktur, Dienstleistungen, Nachhaltigkeit und Lebensqualität zu verbessern und effizient zu verwalten.
Smart Cities sind bereits Realität.
Beispielsweise finden Sie an vielen Parkhäusern ein Liveanzeige mit der Anzahl der freien Parkplätze. Sie können über das Internet die Auslastung von Zügen oder dem Fitnessstudio einsehen.
Von Hochwasserschutz über die Erfassung von Lärm- und Schadstoffbelastungen bis hin zur Optimierung der Abfallwirtschaft entwickeln sich fast alle Bereiche durch die Digitalisierung weiter.
Um das volle Potential einer Smart City zu entfalten muss die Auswertung von KI Modellen von der Cloud in lokale Geräte verlegt werden.
Coral AI ermöglicht genau das durch Produkte wie beispielsweise den Coral USB Accelerator oder das Coral Dev Board Micro.
Coral AI kann in vielen Bereichen von Smart Cities eingesetzt werden.
Täglich steigt die Zahl an Autos auf den Straßen. Und damit natürlich auch das Risiko von Verkehrsstaus. Gerade zu Stoßzeiten sind die Straßen überfüllt.
Hier können mit Sensoren ausgestattete Geräte von Coral rechtzeitig vor verdichtetem Verkehr warnen und Ausweichrouten vorschlagen. Es besteht sogar die Möglichkeit auf Besonderheiten wie zum Beispiel das Wetter zu reagieren.
Mit Coral AI ist es leicht und kostengünstig, Menschen zu erkennen. So können zum Beispiel Klimaanlage und Licht eines Gebäudes entsprechend der Auslastung gesteuert werden.
Rolltreppen, Springbrunnen, Leuchtreklame und viele weitere energiehungrige Geräte können automatisch abgeschaltet werden ohne Datenverkehr über das Internet.
Gerade in dichten Innenstädten mit Auto, Fußgänger- und Radfahrerverkehr kommt es häufig zu teilweise tödlichen Unfällen. Hier können Autofahrer automatisch gewarnt werden wenn sich Fußgänger einem Überweg nähern.
Die dafür notwendige Bilderkennung funktioniert lokal und zeichnet keine persönlichen Daten auf.
Unternehmen können mithilfe von Coral AI können Lösungen entwickeln um die größten Faktoren für Luftverschmutzung zu erkennen oder vermehrten Schadstoffaustritt zu erkennen. So kann Schadstoffausstoß verringert werden.
Der Einfluss von verbesserter Luft auf Gesundheit und Lebensqualität ist enorm. Ein verringertes Risiko für Atemwegserkrankungen, Herz-Kreislauf-Erkrankungen und Schlaganfälle erhöht die Lebenserwartung der gesamten Bevölkerung.
Dies sind nur einige der möglichen Einsatzgebiete von Coral AI. Ihnen fallen weitere Anwendungen oder aber auch Risiken ein? Wir freuen uns auf Ihre Kommentare!
Falls Sie mehr über Coral AI erfahren möchten lohnt sich ein Blick in unsere Videos oder in unser Sortiment.
]]>
Sie benötigen größere Mengen an Raspberry Pis? Kontaktieren Sie uns!
Auch andere Raspberry Pi Modelle werden industriell eingesetzt, wie zum Beispiel Compute-Module und der RP2040 Chip.
Doch wie und wofür werden Raspberry Pis in der Industrie verwendet?
Raspberry Pis werden in den unterschiedlichsten Anwendungen eingesetzt.
Der Raspberry Pi 5 eignet sich hervorragend für die Automatisierung von Produktionslinien. Mit seiner verbesserten Verarbeitungsleistung und Konnektivität können Sie komplexe Aufgaben effizient steuern und überwachen.
Da der Trend in der Industrie zur Verwendung offener Standards tendiert, kommt der Pi an dieser Stelle wie gerufen.
Der Pi ermöglicht das Sammeln wichtiger Daten direkt and der Quelle. Der Raspberry Pi 5 kann als leistungsfähiger Datenlogger fungieren, der Echtzeitinformationen über Maschinenleistung, Energieverbrauch und vieles mehr liefert.
Dazu kommt dass sie volle Kontrolle über Ihre Daten haben und darüber wer sie sieht.
Der Pi 5 kann in IoT-Ökosysteme integriert werden, um eine nahtlose Kommunikation zwischen verschiedenen Geräten und Plattformen zu ermöglichen.
Diese Vernetzung kann zur Optimierung von Prozessen und zur Steigerung der Effizienz beitragen. Auch hier bietet die Verwendung offener Standards einige Vorteile.
Der Raspberry Pi ist beliebt um KI-Anwendungen zu implementieren. Dies kann von der Qualitätskontrolle über prädiktive Wartung bis hin zur Optimierung von Betriebsabläufen reichen.
Durch Produkte wie den Coral USB Accelerator können KI-Anwendungen auf dem Pi erheblich beschleunigt werden.
Der Raspberry Pi 5 bietet die Flexibilität, benutzerdefinierte Lösungen für spezifische Herausforderungen in der Produktion zu entwickeln. Seine Vielseitigkeit ermöglicht es, maßgeschneiderte Anwendungen zu erstellen, die genau auf die Bedürfnisse von Kunden zugeschnitten sind.
Auch der geringe Formfaktor und Stromverbrauch bieten hier Vorteile, vor allem im Bereich der eingebetteten Systeme
Durch die enorme Leistungssteigerung des Raspberry Pi 5 gegenüber Vorgängermodellen sind die Einsatzmöglichkeiten in der Industrie nahezu unbegrenzt.
Daher hat Raspberry Pi dem Thema eine ganze Web-Seite gewidmet.
Auf Raspberry Pi for Industry finden Sie unzählige wertvolle Informationen wie beispielsweise zum Product Information Portal (PIP) oder zum Raspberry Pi Design Partner Programm.
Der Raspberry Pi 5 ist mehr als doppelt so schnell wie der Pi 4. Dazu kommen viele neue Schnittstellen welche dem Pi 5 neue Einsatzgebiete eröffnen.
Der Raspberry Pi 5 wird in industriellen Human Machine Interface (HMI)-Displays eingesetzt. Diese Displays sind mit Funktionen wie M.2 NVMe SSD, RS232/RS485-Schnittstellen und Audio-Eingangs-/Ausgangsbuchsen ausgestattet. Sie sind für das Raspberry Pi OS ausgelegt und können für interaktive Panels in industriellen Umgebungen verwendet werden.
An den Pi 5 können zwei Kameras per CSI-Schnittstelle angeschlossen werden. Zusammen mit der besseren Leistung ermöglicht dies deutlich schnellere und exaktere Computer Vision Anwendungen.
Doch eine wichtige Neuerung des Pi 5 bleibt hier oft unerwähnt. Der Raspberry Pi 5 geht mit der Bildverarbeitung ganz anders um als seine Vorgängermodelle. Der Pi 5 verwendet erstmalig einen Hardware-ISP (image signal processor). Dieser wurde von Raspberry Pi entwickelt und ist teilweise in den RP1 Chip, aber hauptsächlich in den Anwendungsprozessor des Raspberry Pi 5, den Broadcom BCM2712, eingebaut.
Einige Herstelle bieten Gehäuse an die den Raspberry Pi als industriellen Computer nutzbar machen. Viele dieser Gehäuse machen Gebrauch von den neuen Fähigkeiten des Pi 5. Es gibt Gehäuse mit integrierter NVMe SSD und verschiedenen integrierten Kühlsystemen. In den meisten Fällen sind die Anschlüsse des Pi 5 leicht zugänglich. So kann der Pi 5 mit sehr wenig Aufwand als Desktop Computer, Datenlogger oder als Kontrolleinheit eingesetzt werden.
Kommen wir nun zu einigen konkreten Erfolgsgeschichten des Raspberry Pi im industriellen Einsatz.
Das Unternehmen Directed Machines aus Seattle verwendet zur Automatisierung ihrer modularen Landwirtschaftsroboter eine Kombination aus Raspberry Pi 4, RP2040 und Sensoren.
Directed Machines verkauft ihre Roboter in Nordamerika unter anderem an Golfplätze, Solarfarmen und ländliche Eigentümer. Die Roboter erledigen komplexe Aufgaben vollkommen autonom und auf schwierigem Gelände.
Selbst in der Medizin wird der Raspberry Pi eingesetzt. Ineffiziente Papierarbeit zur Datensammlung ist ein zeitaufwändiges Problem in der Medizin. Deswegen hat das Unternehmen EKORA ein Kardiologiegerät zur sicheren digitalen Datensammlung und -verwaltung entwickelt.
Das Gerät basiert auf einem Raspberry Pi Zero W für gute Drahtloskonnektivität.
Die Bierhähne von iPourIt funktionieren autonom und können ferngesteuert werden. Solche Anlagen sind ein Trend in den USA. Durch den Einsatz von Raspberry Pi 4s und Compute Module 4s ist iPourIts Lösung 20% günstiger und leichter skalierbar als andere Lösungen.
Das System verwendet auch die PoE (Power over Ethernet) Fähigkeiten des Raspberry Pi 4 um Kabelmanagement zu vereinfach und nicht von einer Drahtlosverbindung abhängig zu sein.
Besuchen Sie diese Seite für mehr inspirierende Erfolgsgeschichten.
Kontaktieren Sie uns wenn Sie mehr über die Industriellen Einsatzmöglichkeiten des Raspberry Pi erfahren möchten.
Sie kennen Erfolgsgeschichten oder Anekdoten des Raspberry Pi in der Industrie? Wir freuen uns auf Ihre Kommentare!
]]>Hallo Ihr Lieben,
auf Grund der erhöhten Bestellmenge vom Raspberry Pi 5 kommt es aktuell zu Verzögerungen beim Versand der Bestellungen.
Wir möchten Euch bitten, von Anfragen á la "Warum ist mein Paket noch nicht versendet" Abstand zu nehmen. Alex und ich geben unser Bestes, damit alle Bestellungen noch vor Mittwoch gepackt und abgeholt werden können. Damit diese auch noch pünktlich zu Weihnachten unter dem Baum liegen können.
Sobald wir deine Bestellung gepackt haben, erhältst du automatisch eine Versandinfo von DHL mit der Sendungsnummer.
Wir bedanken uns für Euer Verständnis und wünschen Euch noch eine schöne Weihnachtszeit.
Liebe Grüße,
Euer Alex und Eure Stephie
P.S.: Alex hat zwischen Weihnachten und Neujahr Urlaub, sodass ich mich um den Versand und die Bearbeitung Eurer Anfragen kümmere. Bitte habt ein wenig Verständnis, wenn mal eine Antwort später kommen.
Foto von Kira auf der Heide auf Unsplash
]]>auf dieser Seite informiere ich Euch wieder über die Verfügbarkeiten vom Raspberry Pi 5.
Da wir nur sehr kleine Mengen vom Raspberry Pi 5 erhalten, werden wir diese in erster Linie über das Reservierungstool vergeben.
Meine lieben Kollegen haben Euch Videos erstellt, wie das Reservierungstool funktioniert:
Wir haben momentan folgende Reservierungen:
Beim Reservierungstool geht es in gewohnter Reihenfolge, sprich "wer zuerst kommt, malt zuerst". Mit dem Reservierungstool garantieren wir Euch, dass es komplett fair abläuft und Ihr Euren Pi 5 dann auch mit als erstes in den Händen haltet. Wir möchten damit auch Skalpern, die den Pi 5 dann zu überteuerten Preisen verkaufen, keine Chance geben!
Stand 30.10.2023 - Wir haben eine kleine Lieferung der 4GB Variante vom Pi 5 erhalten. Damit können wir alle 4GB Reservierungen abdecken. Und einen Teil auch direkt in unseren Shop als Sets rein stellen.
Folgendes Zubehör ist auch bereits bei uns im Lager eingetroffen und wir haben es direkt online gestellt:
ACHTUNG: Uns fehlt noch die Lieferung der passenden 27W Netzteile. Ihr könnt den Pi 5 auch mit dem Netzteil vom Pi 4 betreiben, jedoch kann dann der Pi 5 seine Leistungen nicht ganz entfalten. Ich habe gerade noch die Info erhalten, dass wir am Mittwoch, den 01.11.2023, die Netzteile erhalten sollen.
WICHTIG: Die SD-Karten aus dem Sets enthalten kein Betriebssystem!
Die Lieferung der 8GB Variante ist auch schon auf dem Weg zu uns. Wir haben am 26.10.2023 die Versandinfo von Raspberry Pi aus UK erhalten. Die Lieferung sollte Anfang nächster Woche bei uns sein. Hiervon können wir jedoch nur einen Teil der Pi 5 8GB Reservierungen abdecken.
Solltet Ihr als Firma einen Raspberry Pi 5 für Entwicklungszwecke benötigen, schreibt mir bitte direkt eine E-Mail an support@pi3g.com.
Liebe Grüße aus Leipzig,
Stephanie
Der Pi 5 überraschte mich am meisten mit seiner PCIe-Schnittstelle, die die Verwendung von HATs mit hoher Bandbreite und zusätzlichen Funktionen ermöglicht. Zuvor hatte das Raspberry Pi Compute Module 4 eine PCIe-Schnittstelle, die über das I/O-Board zugänglich war. Und Raspberry Pi 4 hatte eine interne
Jetzt hat dieses Gerät einen PCIe 2.0 x1-Anschluss, wodurch NVMe-Laufwerke verwendet werden können.
PCIe 2.0 x1 bietet 5GT/s, was bedeutet, dass man mit einer einzigen Spur einen Durchsatz von 5 Gbit/s erhält.
Sie können einen PCIe HAT für SSD verwenden, um Hochgeschwindigkeits-NVMe-SSDs mit dem Raspberry Pi 5 zu verbinden. Dadurch wird die Speicherleistung für datenintensive Anwendungen oder lokale Hochgeschwindigkeits-Speicherlösungen erheblich gesteigert.
Die PCIe-Integration ermöglicht den Anschluss von Hochgeschwindigkeits-Netzwerkadaptern wie 10 GbE- oder 40 GbE-Karten. Diese sind wertvoll für Netzwerkanwendungen, die einen hohen Datendurchsatz erfordern, wie z. B. NAS-Systeme oder fortschrittliche Netzwerkprojekte.
Trotz der begrenzten Bandbreite von PCIe Gen 2.0 x1 können Grafikkarten mit geringem Stromverbrauch angeschlossen werden, was für Hardware-beschleunigte Aufgaben oder maschinelles Lernen von Vorteil ist.
Wayland ersetzt das alte X11-Display-Server-Protocol und bietet einen neuen Grafikstack.
Wayland erhöht die Sicherheit, indem es Anwendungen voneinander isoliert.
Anders als X11 erlaubt Wayland einer Anwendung nicht, die Grafiken einer anderen Anwendung zu lesen oder zu verändern. Diese Isolierung zielt darauf ab, potenzielle Sicherheitslücken zu vermeiden, und macht es zu einer sichereren Wahl für moderne Computer.
Für Gamer bietet Wayland ein überragendes Erlebnis.
Die reduzierte Eingabeverzögerung und das verbesserte Rendering können bei schnellen Spielen einen spürbaren Unterschied ausmachen. Auf PiCockpit haben wir einen Artikel zur Performance von DOOM auf dem Raspberry Pi 5.
Wenn es um Ver- und Entschlüsselung geht, arbeitet der Raspberry Pi 5 auf einem noch nie dagewesenen Niveau.
Laut Jeff Geerling beschleunigt der Pi 5 die Kryptografie um das 45-fache.
Das neue Netzteil ist eine besonders überraschende Funktion, wenn man sich ansieht, was die Leute in den Foren geschrieben haben. Denn überraschender Weise, sind viele Leute von dem neuen Netzteil nicht begeistert.
Das neue 27-W-USB-C-Power-Delivery-Netzteil (PD) liefert maximal 5 A bei 5,1 V. Dieses neue Netzteil ermöglicht dem Raspberry Pi 5 , eine größere Bandbreite an Peripheriegeräten zu betreiben als frühere Modelle.
Der Gesamtstrom, der von allen vier USB-Ports des Raspberry Pi 5 aufgenommen wird, ist standardmäßig auf 600 mA begrenzt. Wenn Ihr Pi das 27-W-USB-C-PD-Netzteil erkennt, erhöht er diese Grenze automatisch auf 1,6 A.
Das 27-W-USB-C-PD-Netzteil kann auch 3 A bei 9 V, 2,25 A bei 12 V und 1,8 A bei 15 V an PD-kompatible Produkte liefern. Das heißt, wenn Sie sich für das neue Netzteil entscheiden, können Sie es auch zum Aufladen anderer Geräte (z. B. Mobiltelefone) verwenden.
Wie James Adams in seinem Interview mit Eben Upton erwähnt, war es eine Herausforderung, das Netzteil mit 5V/5A zu betreiben, denn das ist eine niedrige Spannung bei einem hohen Strom.
Ihr Raspberry Pi 5 funktioniert immer noch mit aktuellen Raspberry Pi 4 Netzadaptern. Tatsächlich habe ich den Pi 5 schon eine Weile mit dem Pi 4 Netzteil getestet.
Er ist jedoch eingeschränkt, sofern sie Powerhungrige Geräte wie SSDs anschließen wollen.
Der RP1 ist eines der herausragenden Merkmale des Raspberry Pi 5.
Das 15-Millionen-Dollar-Programm, das intern als Projekt Y bekannt ist, brachte den RP1 hervor, der GPIO, USB und mehr integriert.
Der Raspberry Pi 5 verfügt über den RP1-Chip, der die On-Board-Peripheriegeräte steuert und über I2C, SPI, USB, Ethernet, Kameras und Displays über einen 4-Lane-PCI-Express-Bus kommuniziert.
Der RP1 wird beruht auf 40nm ArchitekturRP1 dient als Southbridge, die den Großteil der I/O-Funktionen des Raspberry Pi 5 verwaltet, und ist damit das erste intern entwickelte Silizium auf einem Raspberry Pi Flaggschiff-Produkt. Diese Entwicklung eröffnet ein neues Reich an Möglichkeiten.
Dank der Southbridge gibt es ein ganz neues Universum an Peripherieleistung und Funktionalität.
Da habt ihr es!
Dies sind die 5 besonders überraschenden Funktionen des Raspberry Pi 5, die uns aufgefallen sind.
Finden Sie andere Funktionen überraschend? Kommentieren Sie unten!
Schauen Sie sich auch andere Artikel über Raspberry Pi 5 an:
Wir wissen, wie frustrierend es ist, bis zum 23. Oktober auf einen Raspberry Pi 5 warten zu müssen.
Deshalb wollten wir es euch ermöglichen, den neuen Pi so schnell wie möglich zu testen.
Also haben wir einen Wettbewerb ins Leben gerufen: Was ist das Verrückteste, was ihr euch für den Raspberry Pi 5 ausdenken könnt?
Vorausgesetzt, die Idee zerstört den Pi nicht, können Sie uns Ihre Idee schicken und wir setzen sie auf unserem Pi 5 um - und schreiben einen Artikel darüber!
Wir werden den Gewinner hier und auf buyzero.de am 23. Oktober bekannt geben.
Die Gewinner Idee (von uns bestimmt) gewinnt ein komplettes Raspberry Pi 5-Kit - inklusive eines 27W USB-C Netzteils, einem Raspberry Pi 5 Gehäuse, einer SD-Karte und einem Raspberry Pi 5. Alles mit kostenlosem Versand innerhalb der EU.
Der Zweitplatzierte gewinnt einen Raspberry Pi 5 mit kostenlosem Versand innerhalb der EU.
Schicken Sie uns Ihre Ideen - Sie können sie unten kommentieren!
Sie können uns auch nicht ganz so verrückte Dinge sagen, die Sie gerne mit dem Raspberry Pi 5 ausprobieren würden, und wir können sie für Sie umsetzen!
Und wenn ihr immer auf dem Laufenden bleiben wollt, dann solltet ihr euch für unseren Newsletter anmelden. Wir werden ihn im Laufe des nächsten Monats aktualisieren und auch über den Wettbewerb berichten!
Raspberry Pi hat für den Pi 5 ein neues Netzteil entwickelt. Das neue 27 W USB-C Netzteil liefert unter anderem 5V und 5A.
Ich sage unter anderem, da es dank Power Delivery Technologie auch andere Spannungen zur Verfügung stellen kann.
Das 27 W USB-C Netzteil kann auch 3 A bei 9 V, 2,25 A bei 12 V und 1,8 A bei 15 V an PD kompatible Produkte liefern.
Dies macht es zu einem kostengünstigen Netzteil für viele allgemeine Anwendungsfälle, nicht nur für Ihren Raspberry Pi.
Es hat hat einen Eingangsbereich von 100-240VAC.
Der Pi 5 kann auch mit dem 15 W Raspberry Pi 4 Netzteil betrieben werden. Aber die zusätzlichen 10 W des neuen Netzteils erlauben es mehr und leistungstärkere Peripherie anzuschließen.
Beispielweise soll SDD-Boot per Default nur mit dem neuen Netzteil möglich sein.
Der Gesamtstrom, der von allen vier USB-Ports des Raspberry Pi 5 aufgenommen wird, ist standardmäßig auf 600 mA begrenzt. Wenn Ihr Pi das 27 W USB-C Netzteil erkennt, wird dieser Grenzwert automatisch auf 1,6 A erhöht.
Eine Sache, die ich an Raspberry Pi immer geschätzt habe, ist die Länge der Stromkabel - das offizielle Pi 5-Kabel ist 1,2 Meter lang.
Ein weiterer Vorteil des neuen Netzteils ist der Formfaktor. Es ist zwar höher als Das Raspberry Pi 4 Netzteil aber dafür schmaler und nimmt so weniger Platz im Steckdosenverteiler ein.
Das neue Gehäuse sieht dem offiziellen Raspberry Pi 4 Gehäuse sehr ähnlich, verfügt aber über einige wichtige Verbesserungen.
Zunächst einmal leitet es die Wärme effektiver ab und kommt so den höheren Temperaturen des Raspberry Pi 5 entgegen.
Außerdem ist ein Lüfter integriert, der mit verschiedenen Geschwindigkeiten laufen kann und über einen Anschluss am Raspberry Pi 5 (in der Nähe der USB-Anschlüsse) mit Strom versorgt und gesteuert wird.
Und nicht nur das: Die neuen Gehäuse sind stapelbar. So können Sie mehrere Raspberry Pi 5s bequem unterbringen und ganz einfach ein Pi Cluster bauen.
Raspberry Pi hatte mehr Zeit als gewöhnlich um das Gehäuse zu verbessern.
So ist zum Beispiel ein Powerbutton in transparentem Plastik angelegt, so dass die Status LED auch außen am Gehäuse sichtbar ist.
Die GPIO Pins liegen frei und die Zwischenabdeckung hat einen integrierten Lüfter.
Erwähnenswert ist auch, dass der neue PoE+ HAT für Raspberry Pi 5 zusammen mit dem Lüfter und der Abdeckung in das Gehäuse passt.
Da der Pi 5 die Reihenfolge der USB-Anschlüsse und des Ethernet-Ports umgedreht hat, können Sie Ihr Pi 4 Gehäuse leider nicht mehr verwenden.
Mit der Markteinführung des Pi 5 wird das klassische Gehäuse in rot und weiß verfügbar sein, doch auch eine schwarz graue Version ist geplant.
Für Anwendungen die kein Gehäuse benötigen wird es den Active Cooler geben, der eine Kombination aus Lüfter und Kühlkörper ist.
Genau wie der Lüfter im Gehäuse wird auch der Active Cooler über den Lüfteranschluss des Pi 5 mit Strom versorgt und gesteuert. Er wird über gefederte Stifte in zwei Befestigungslöchern an der Platine des Raspberry Pi 5 befestigt.
Der Lüfter ist mit sehr leisen und langlebigen Kugellagern ausgestattet. Je nach bedarf schaltet der Pi 5 den Lüfter in einen von 4 Gängen.
Ich möchte jedoch betonen, dass der Raspberry Pi 5 sehr heiß läuft. Sie müssen sich also wirklich Gedanken über die Kühlung machen. Und hier sind das Gehäuse oder der Active Cooler wahrscheinlich die besten Lösungen.
Unter dem Active Cooler sind Wärmeleitpads in perfekt abgestimmten Höhen angebracht. Mit nur zwei Schrauben kann der Active Cooler sicher und in kürzester Zeit angebracht werden.
Eines der gefragtesten Features wurde mit dem Pi 5 endlich verwirklicht. Wir haben endlich eine Echtzeituhr auf einem Raspberry Pi integriert.
Der Raspberry Pi 5 integriert die RTC über den Power-Management-IC und den Ladeschaltkreis für eine Knopfzelle, die die Uhr mit Strom versorgen kann, wenn die Hauptstromversorgung unterbrochen ist.
Für die RTC verkauft Raspberry Pi eine Panasonic ML-2020 Lithium-Mangan-Dioxid-Batterie.
Diese wird mit einem zweipoligen Stecker geliefert, der direkt an den Batterieanschluss auf der Raspberry Pi 5-Platine angeschlossen werden kann, sowie mit einem doppelseitigen Klebepad. Daher können Sie es leicht an der Innenseite eines Gehäuses oder wo immer Sie es für richtig halten, befestigen.
Neben der RTC verfügt der Raspberry Pi 5 über ein völlig neues Kamera- und Display-Setup.
Die MIPI-Anschlüsse verwenden das gleiche 22-polige "Mini"-FPC-Format mit 0,5 mm Raster wie der Raspberry Pi Zero.
Sie benötigen also Adapterkabel für den Anschluss an die 15-poligen "Standard"-Steckverbinder mit 1 mm Rasterabstand für aktuelle Kamera- und Display-Produkte.
Sie können Adapterkabel in verschiedenen Längen finden, insbesondere 200 mm, 300 mm und 500 mm.
Die Kabel sind besser abgeschirmt als die alten Raspberry Pi Kamera Kabel, was die zusätzliche Länge ermöglicht.
Zusammen mit dem neuen Flaggschiffprodukt wird es auch neue Raspberry Pi 5 HATs geben.
Dazu zählt zum Beispiel ein neuer PoE+ HAT.
Leider bedeutet dies, dass Ihr alter Pi 4 PoE+ HAT aufgrund des physikalischen Layouts und der Stromanforderungen des Raspberry Pi 5 nicht mit Ihrem Raspberry Pi 5 funktionieren wird.
Aber, wie ich oben erwähnt habe, können Sie den neuen PoE+ HAT im neuen Raspberry Pi 5 Gehäuse verwenden.
Zusätzlich zum PoE+ HAT hat Raspberry Pi den Raspberry Pi 5 M.2 HAT angekündigt, der den Anschluss von PCIe- und NVMe-Geräten im M.2-Format an den PCIe-FPC-Anschluss des Raspberry Pi 5 unterstützt.
Damit kann man nun auch auf einem anderen Raspberry Pi als dem Compute Module 4 native M.2 NVMe nutzen!
Es ist jedoch wichtig zu erwähnen, dass der M.2 HAT nur M-key ist. Er wird also nicht mit anderen keys funktionieren.
Es ist 2 bis 3 Mal leistungsfähiger als der Raspberry Pi 4 und bietet blitzschnelle CPU-Geschwindigkeiten, eine PCIe 2.0-Schnittstelle und einen RTC- und RTC-Batterieanschluss!
Das neue Modell verwendet den Broadcom BCM2712 Chip mit einem Quad-Core ARM Cortex-A76 (ARM v8) 64-bit System on a Chip (SoC), mit 512KB L2 Caches und einem 2MB shared L3 Cache. Er läuft mit 2,4 GHz.
Außerdem verfügt er über eine VideoCore VII GPU.
Darüber hinaus ist er mit LPDDR4X-4267 SDRAM ausgestattet, und bei der Markteinführung können Sie ihn entweder mit 4 GB oder 8 GB RAM erhalten.
Die Ankündigung des Pi 5 ist eine große Sache. In einem Interview im Dezember 2022 erwähnte Eben Upton, der CEO von Raspberry Pi Ltd. dass 2023 ein Erholungsjahr sei und dass wir keine neuen Produkte erwarten sollten.
Nun, es sieht so aus, als 2023 ein deutlich besseres Jahr für Raspberry Pi war als angenommen. So wird der Pi 5 nun etwa ab 23 Oktober verfügbar sein.
Oder zumindest "weithin verfügbar", denn der Vorrat wird bis Ende des Jahres noch relativ begrenzt sein.
Aufgrund des Tempos, mit dem die Produktion hochgefahren wird, werden die ersten Raspberry Pi 5 Ende Oktober bei den Kunden eintreffen, aber sie werden erst Anfang nächsten Jahres in großer Zahl verfügbar sein.
Wenn Sie PiCockpit kennen, dann kennen Sie wahrscheinlich auch unser Reservierungstool, das wir seit Beginn der Knappheit für Raspberry Pis eingerichtet haben.
Heute ist es natürlich möglich, ohne großen Aufwand Raspberry Pis zu finden.
In Kürze werden wir auch ein Reservierungstool für den Raspberry Pi 5 einrichten. Damit können Sie sich einen Platz in der Warteschlange reservieren, und sobald sie verfügbar sind, können Sie einen bei uns bestellen!
Wir wissen, wie frustrierend es ist, warten zu müssen. Deshalb wollten wir Ihnen die Möglichkeit geben, den Pi 5 so schnell wie möglich testen zu können.
Deshalb veranstalten wir einen kleinen Wettbewerb: Was ist das Verrückteste, was du dir für den Raspberry Pi 5 ausdenken kannst?
Vorausgesetzt, es macht ihn nicht kaputt, könnt ihr uns eure Ideen schicken und wir werden sie auf unserem Pi 5 umsetzen.
Der Gewinneridee wird ein langer Artikel und ein Video gewidmet, bevor sie am 23. Oktober offiziell veröffentlicht wird. In der Zwischenzeit werden wir ständig Tests hochladen und Ihre Ideen auf unserem Raspberry Pi 5 umsetzen.
Ihr könnt uns auch nicht so verrückte Dinge sagen, die ihr gerne mit dem Raspberry Pi 5 ausprobieren würdet, und wir können sie für euch umsetzen!
Wenn ihr irgendwelche Fragen habt, lasst es uns wissen!
Also schickt uns eure Ideen - ihr könnt entweder unten kommentieren oder uns über den offiziellen PiCockpit-Kontakt kontaktieren.
Auch hier gilt: Wenn Sie auf dem Laufenden bleiben wollen, sollten Sie sich für unseren Newsletter anmelden. Dort informieren wir Sie regelmäßig über Neuigkeiten zum Pi 5 und anderen Themen.
]]>Einem Javascript Benchmark zufolge, schnitt der Raspberry Pi 5 ähnlich gut ab wie ein 2015er Macbook Pro.
Lassen Sie das einen Moment auf sich wirken.
Ein Raspberry Pi 5 läuft ähnlich gut wie ein Macbook Air von 2015.
Mit einem so leistungsstarken Board sind die Möglichkeiten endlos!
Ohne weitere Umschweife präsentiere ich Ihnen also alles, was Sie über Raspberry Pi 5 wissen müssen.
Natürlich sollte ich erwähnen, dass wir in Kürze Vorbestellungen über PiCockpit ermöglichen. Wir informieren Sie in unserem Newsletter sobald es soweit ist - es lohnt sich also zu subscriben!
Mit der Ankündigung des Raspberry Pi 5 hat uns das Unternehmen sowohl eine gute als auch eine schlechte Nachricht überbracht.
Die gute Nachricht ist natürlich, dass es ein neues Vorzeigeprodukt gibt!
Gegen Ende des letzten Jahres noch nicht zu denken.
CEO Eben Upton sagte, dass wir nicht mit einem Raspberry Pi 5 im Jahr 2023 rechnen sollten. Er ging davon aus, dass dieses Jahr ein reines Erholungsjahr sein würde, nachdem es in den letzten Jahren zu Engpässen und Engpässen bei Raspberry Pis gekommen ist.
Allerdings gibt es im Moment auch eine schlechte Nachricht.
Obwohl Raspberry Pi heute, am 28. September 2023, den Raspberry Pi 5 ankündigte, wird das neue Modell erst am 23. Oktober für Endverbraucher verfügbar sein.
Normalerweise werden Raspberry Pi Produkte gleichzeitig angekündigt und auf den Markt gebracht. Der Raspberry Pi 5 ist das erste Mal, dass die Ankündigung der Markteinführung auf diese Weise vorausgeht.
Glücklicherweise können Sie Ihren Raspberry Pi 5 bei uns über PiCockpit vorbestellen.
Zunächst die Schlagzeile.
Raspberry Pi 5 ist 2 bis 3 Mal leistungsfähiger als Raspberry Pi 4 und bietet blitzschnelle CPU-Geschwindigkeiten, eine PCIe 2.0-Schnittstelle und einen RTC- und RTC-Batterieanschluss!
Als nächstes die Zusammenfassung.
image by Raspberry Pi
CPU |
2.4 GHz Broadcom 2712 chip, featuring a quad-core ARM Cortex-A76 (ARM v8) 64-bit System on a Chip (SoC), with 512KB L2 caches and a 2MB shared L3 cache. |
GPU |
VideoCore VII GPU |
SDRAM |
LPDDR4X-4267 SDRAM (4GB and 8GB SKUs available at launch) |
WiFi |
2.4 GHz and 5.0 GHz 802.11ac Wi-Fi |
Bluetooth |
Bluetooth 5.0/Bluetooth Low Energy (BLE) |
SD slot |
Micro SD card slot, with support for high-speed SDR104 mode |
HDMI ports |
Dual HDMI ports that can provide 4Kp60 video output simultaneously |
USB ports |
2 × USB 3.0 ports, supporting simultaneous 5Gbps operation & 2 x USB 2.0 ports |
Ethernet |
Gigabit Ethernet, with PoE+ support (requires a new Pi 5 PoE+ HAT) |
Camera/Display Ports |
2 × 4 lane MIPI camera/display transceivers |
Power |
5V/5A DC power (PD enabled) (USB-C) |
GPIO Pins |
Raspberry Pi standard 40-pin header |
RTC |
Real-Time Clock (RTC) and RTC battery connector |
PCIe |
Single lane PCIe 2.0 |
Power Button |
Finally! |
Kommen wir nun endlich zu den Details.
Mit jeder neuen Raspberry Pi Generation gibt es in der Regel ein bemerkenswertes CPU Upgrade, aber mit dem Raspberry Pi 5 haben wir ein ganz neues Niveau erreicht.
Das neue Modell verwendet den Broadcom 2712 Chip mit einem Quad-Core ARM Cortex-A76 (ARM v8) 64-bit System on a Chip (SoC), mit 512KB L2 Caches und einem 2MB shared L3 Cache.
Wenn Sie einen Raspberry Pi 4 haben, dann wissen Sie, dass er offiziell mit 1,8 GHz läuft.
Aber Raspberry Pi 5 unterstützt offiziell eine Frequenz von 2,4 GHz!
Zu diesem enormen CPU-Boost kommt ein neuer, intern entwickelter Chip namens RP1 hinzu.
Der RP1 ist eine Southbridge, die den Großteil der I/O-Funktionen des Raspberry Pi 5 steuert. Es ist auch das erste Mal, dass ein Raspberry Pi Flaggschiffprodukt mit einem selbst entwickelten Chip ausgestattet wird.
Dank der Southbridge eröffnet sich mit dem Raspberry Pi 5 ein ganz neues Universum an Peripherieleistung und Funktionalität.
Mit dem Pi 5 haben Sie mehr als die doppelte Gesamt-USB-Bandbreite als mit dem Pi 4. Und Sie können Ihren Raspberry Pi 5 über USB 3.0 booten.
Sie haben auch die doppelte Spitzenleistung der SD-Karte durch den SD104-Hochgeschwindigkeitsmodus.
Diese Verbindungen sind nicht nur schneller, sondern der Raspberry Pi 5 verfügt auch über völlig neue Verbindungen!
Das erste, was Ihnen auffallen wird, ist eine Single-Lane-PCIe-2.0-Schnittstelle. PCIe ist ein großes Upgrade für den Raspberry Pi 5. Wir hatten bereits einen PCIe-Anschluss mit dem Compute Module 4 I/O Board, aber jetzt haben wir einen PCIe-Anschluss direkt durch ein Flaggschiffprodukt. Das Beste daran ist, dass Sie sogar über PCIe booten können.
Wenn Sie also schon immer ein Raspberry Pi NAS bauen wollten, ist ein Pi 5 mit PCIe der beste Weg, um es zum Laufen zu bringen!
Darüber hinaus verfügt er über eine brandneue Mikroarchitektur für die GPU, den VideoCore VII.
Außerdem ist es mit LPDDR4X-4267 SDRAM ausgestattet, und bei der Markteinführung können Sie es entweder mit 4GB oder 8GB RAM erhalten. Eine 2GB Variante wird wahrscheinlich noch früh genug auf den Markt kommen.
Ob es eine 1GB Variante geben wird hängt jedoch von der Entwicklung der Preise für RAM zusammen.
Und die Größe des Arbeitsspeichers ist jetzt auf der Platine sichtbar! Sie müssen nicht mehr versuchen, sich zu merken, welchen Pi Sie haben!
Was die drahtlosen Verbindungen betrifft, so verfügt der Raspberry Pi 5 über 2,4 GHz und 5,0 GHz 802.11ac Wi-Fi sowie Bluetooth 5.0 und BLE. Mit anderen Worten, hier finden wir die gleichen Konnektivitätsoptionen, die bereits mit Raspberry Pi 4 verfügbar waren.
Das bedeutet, dass WiFi 6 immer noch nicht unterstützt wird, was vor allem auf den Preis zurückzuführen ist.
Aber obwohl es kein Upgrade für WiFi gab, gibt es eine Verbindung mit höherer Bandbreite zum WiFi-Chip, was bedeutet, dass Ihr Raspberry Pi 5 Ihnen eine stärkere Verbindung bieten wird.
Der Raspberry Pi 5 verfügt außerdem über zwei 4-Lane-MIPI-Transceiver für Kamera und Display. Mit dem Raspberry Pi 5 können Sie also zwei Kameras oder zwei Bildschirme anschließen, wodurch sich ein ganzes Universum an stereoskopischen Anwendungen eröffnet.
Wenn Sie Ihre Raspberry Pis gut kennen, dann wissen Sie natürlich, dass die Ethernet- und USB-Anschlüsse beim Raspberry Pi 4 umgedreht wurden, damit alles auf die Platine passt. Nun, mit dem Raspberry Pi 5 kehren wir zum vorherigen Layout zurück. Der Ethernet-Anschluss befindet sich wieder auf der linken Seite.
Wie bei den Vorgängermodellen bieten die GPIO-Pins SPI, I2C, PWM, UART, SDIO, DPI, PCM und GPCLK.
In der Mitte der beiden Micro-HDMI-Anschlüsse befindet sich ein neuer designierter UART-Anschluss. Er ist in erster Linie für das Debugging gedacht. Sie könnten damit zum Beispiel die Pico Probe gut nutzen.
Wenn Sie mehr über diese Schnittstellen erfahren möchten, können Sie sich hier einige unserer Artikel dazu ansehen:
Seit den Anfängen des Raspberry Pi haben wir alle auf einen Einschaltknopf gewartet und der Raspberry Pi hat ihn endlich geliefert.
Der Einschaltknopf ist mit dem PMIC und dem GPIO verbunden und funktioniert intuitiv. Mit anderen Worten, der Knopf kann dazu verwendet werden, den Pi aus dem Tiefschlaf aufzuwecken. Und wenn der Pi eingeschaltet ist, kann man ihn schnell drücken, um ihn auszuschalten, oder man kann ihn gedrückt halten, um den Strom abzuschalten.
Mit einem neuen Raspberry Pi kommt auch ein neues Betriebssystem - Raspberry Pi OS Bookworm.
Es ist wichtig zu wissen, dass ältere Versionen von Raspberry Pi OS auf dem Raspberry Pi 5 nicht unterstützt werden. Sie müssen also Bookworm auf Ihren Pi 5 flashen.
Bookworm verwendet Wayland als Fenstermanager, obwohl die Desktop-Umgebung LXDE bleibt.
Insgesamt versucht Raspberry Pi, sich von proprietären APIs weg und hin zu offenen APIs zu bewegen.
Mit Bookworm als Betriebssystem wurden einige ältere Module aus dem Verkehr gezogen.
Zum Beispiel wird raspistill vollständig durch libcamera ersetzt werden. Dies wurde bereits mit Bullseye begonnen, aber beide Module waren noch verfügbar.
Außerdem werden sowohl OpenGL als auch Vulkan auf Bookworm unterstützt.
Wir werden zu gegebener Zeit einen vollständigen Artikel über Bookworm veröffentlichen, aber es ist ein sehr spannendes Upgrade von Bullseye.
Natürlich kommt Raspberry Pi 5 auch mit jeder Menge neuer Accessoires! Unter anderem wird es ein neues Netzteil, eine neue Case und einen PoE+ HAT geben.
Wenn es um die Energieverwaltung geht, ist der Raspberry Pi 5 auf einem ganz neuen Niveau.
Das Netzteil hat einen Eingangsbereich von 100-240VAC.
Das neue 27-W-USB-C-Power-Delivery-Netzteil (PD-Netzteil) liefert maximal 5 A bei 5,1 V und ermöglicht es Ihrem Raspberry Pi 5, eine größere Anzahl von Peripheriegeräten zu betreiben als frühere Modelle.
Der Gesamtstrom, der von allen vier USB-Ports des Raspberry Pi 5 aufgenommen wird, ist standardmäßig auf 600 mA begrenzt. Wenn Ihr Pi das 27-W-USB-C-PD-Netzteil erkennt, wird dieser Grenzwert automatisch auf 1,6 A erhöht.
Das 27-W-USB-C-PD-Netzteil kann auch 3 A bei 9 V, 2,25 A bei 12 V und 1,8 A bei 15 V an PD-kompatible Produkte liefern.
Dies macht es zu einem kostengünstigen Netzteil für viele allgemeine Anwendungsfälle, nicht nur für Ihren Raspberry Pi.
Eine Sache, die ich an Raspberry Pi immer geschätzt habe, ist die Länge der Stromkabel - das offizielle Pi 5-Kabel ist 1,2 Meter lang (das sind fast 4 Fuß!)
Ein Vorteil des neuen Netzteils ist der Formfaktor. Es ist zwar höher als Das Raspberry Pi 4 Netzteil aber dafür schmaler und nimmt so weniger Platz im Steckdosenverteiler ein.
Das neue Gehäuse sieht dem offiziellen Raspberry Pi 4-Gehäuse sehr ähnlich, verfügt aber über einige wichtige Verbesserungen.
Zunächst einmal leitet es die Wärme effektiver ab und kommt so den höheren Temperaturen des Raspberry Pi 5 entgegen.
Außerdem ist ein Lüfter integriert, der mit verschiedenen Geschwindigkeiten laufen kann und über einen Anschluss am Raspberry Pi 5 (in der Nähe der USB-Anschlüsse) mit Strom versorgt und gesteuert wird.
Und nicht nur das: Die neuen Gehäuse sind stapelbar. So können Sie mehrere Raspberry Pi 5s bequem unterbringen und ganz einfach ein Pi Cluster bauen.
Erwähnenswert ist auch, dass der neue PoE+ HAT für Raspberry Pi 5 zusammen mit dem Lüfter und der Abdeckung in das Gehäuse passt.
Da der Pi 5 die Reihenfolge der USB-Anschlüsse und des Ethernet-Ports umgedreht hat, können Sie Ihr Pi 4-Gehäuse leider nicht mehr verwenden. Aber dieses neue Gehäuse ist super cool.
Bei der Markteinführung werden Sie das klassische rot-weiße Farbschema des Raspberry Pi erhalten, aber Sie müssen sich noch gedulden, wenn Sie ein offizielles Gehäuse in Schwarz und Grau haben möchten. Diese werden irgendwann in der Zukunft auf den Markt kommen.
Wenn Sie sich kein Gehäuse zulegen wollen, können Sie natürlich auch einen Active Cooler kaufen, der eine Kombination aus Lüfter und Kühlkörper ist.
Genau wie der Lüfter im Gehäuse wird auch der Active Cooler über den Lüfteranschluss des Pi 5 mit Strom versorgt und gesteuert. Er wird über gefederte Stifte in zwei Befestigungslöchern an der Platine des Raspberry Pi 5 befestigt.
Ich möchte jedoch betonen, dass der Raspberry Pi 5 sehr heiß läuft. Sie müssen sich also wirklich Gedanken über die Kühlung machen. Und hier sind das Gehäuse oder der Active Cooler wahrscheinlich die besten Lösungen.
Wir haben endlich eine Echtzeituhr auf einem Raspberry Pi integriert.
Noch dazu ist es eine RTC, die den Pi 5 aus dem Schlafmodus aufwecken kann, und sie ist programmierbar!
Der Raspberry Pi 5 integriert die RTC über den Power-Management-IC und den Ladeschaltkreis für eine Knopfzelle, die die Uhr mit Strom versorgen kann, wenn die Hauptstromversorgung unterbrochen ist.
Für die RTC verkauft Raspberry Pi eine Panasonic ML-2020 Lithium-Mangan-Dioxid-Batterie.
Diese wird mit einem zweipoligen Stecker geliefert, der direkt an den Batterieanschluss auf der Raspberry Pi 5-Platine angeschlossen werden kann, sowie mit einem doppelseitigen Klebepad. Daher können Sie es leicht an der Innenseite eines Gehäuses oder wo immer Sie es für richtig halten, befestigen.
Neben der RTC verfügt der Raspberry Pi 5 über ein völlig neues Kamera- und Display-Setup.
Der Raspberry Pi 5 verfügt über zwei vierspurige MIPI-Anschlüsse (Mobile Industry Processor Interface), von denen jeder entweder eine serielle Kamera-Schnittstelle (CSI) oder eine serielle Display-Schnittstelle (DSI) unterstützen kann.
Diese Anschlüsse verwenden das gleiche 22-polige "Mini"-FPC-Format mit 0,5 mm Raster wie das Compute Module Development Kit.
Sie benötigen also Adapterkabel für den Anschluss an die 15-poligen "Standard"-Steckverbinder mit 1 mm Rasterabstand für aktuelle Kamera- und Display-Produkte.
Sie können Adapterkabel in verschiedenen Längen finden, insbesondere 200 mm, 300 mm und 500 mm.
Diese Kabel können so lang sein, weil sie eine sehr gute Abschirmung haben.
Dafür erhalten Sie neue vierspurige MIPI-Steckverbinder, die eine ganze Reihe von Anwendungen ermöglichen.
Zusammen mit dem neuen Flaggschiffprodukt gibt es auch einen neuen Raspberry Pi 5 PoE+ HAT.
Leider bedeutet dies, dass Ihr altes Pi 4 PoE+ HAT aufgrund des physikalischen Layouts und der Stromanforderungen des Raspberry Pi 5 nicht mit Ihrem Raspberry Pi 5 funktionieren wird.
Aber, wie ich oben erwähnt habe, können Sie den neuen PoE+ HAT im neuen Raspberry Pi 5 Gehäuse verwenden.
Zusätzlich zum PoE+ HAT hat Raspberry Pi den Raspberry Pi 5 M.2 HAT angekündigt, der den Anschluss von PCIe- und NVMe-Geräten im M.2-Format an den PCIe-FPC-Anschluss des Raspberry Pi 5 unterstützt.
Damit kann man nun auch auf einem anderen Raspberry Pi als dem Compute Module 4 native M.2 NVMe nutzen!
Es ist jedoch erwähnenswert, dass der M.2 HAT nur M-key ist. Er wird also nicht mit anderen keys funktionieren.
Sind Sie schon voller Vorfreude auf diesen Raspberry Pi?
Dann können Sie ihn jetzt bei PiCockpit vorbestellen.
Leider ist das Tool noch nicht bereit aber in unserem buyzero Newsletter efahren Sie als erste, wenn es soweit ist.
Bestellen Sie Ihren Raspberry Pi 5 vor
Sie können auch hier auf buyzero vorbeischauen, um Raspberry Pis aller Art zu finden.
Wir sind ein anerkannter Raspberry Pi Reseller, was unsere Authentizität und Qualität garantiert.
Wir wissen, wie frustrierend es ist, auf einen Pi 5 warten zu müssen.
Daher versuchen wir Ihnen einen kleinen Vorgeschmack zu bieten.
Deshalb veranstalten wir einen kleinen Wettbewerb: Was ist das Verrückteste, was ihr euch für den Raspberry Pi 5 ausdenken könnt?
Vorausgesetzt, es macht den Raspberry Pi 5 nicht kaputt, könnt ihr uns eure Ideen schicken und wir werden sie auf unserem Gerät umsetzen.
Der Gewinneridee wird ein langer Artikel und ein Video gewidmet, bevor sie am 23. Oktober offiziell veröffentlicht wird. In der Zwischenzeit werden wir ständig Tests hochladen und Ihre Ideen auf unserem Raspberry Pi 5 umsetzen.
Ihr könnt uns auch weniger verrückte Dinge vorschlagen, die ihr gerne mit dem Raspberry Pi 5 ausprobieren würdet, und wir können sie für euch umsetzen!
Wenn ihr irgendwelche Fragen habt, lasst es uns wissen!
Also schickt uns eure Ideen - ihr könnt entweder unten kommentieren oder uns über den offiziellen PiCockpit Kontakt kontaktieren.
Der neue Raspberry Pi 5 lässt sich durch ein Wort beschreiben: Leistung.
Er ist so Leistungsstark, dass er trotz ARM Architektur als vollwertiger Desktop verwendet werden kann.
Das bedeutet auch, dass Sie über eine aktive Kühlung und nicht nur über eine passive Kühlung nachdenken müssen.
Aber mit dieser leistungsstarken Konstruktion und den neuen Funktionen, wie PCIe, RTC und einer CPU-Frequenz von 2,4 GHz, hat der Raspberry Pi 5 das Spiel komplett verändert.
wir haben unverhofft eine große Lieferung Raspberry Pi 3B+ erhalten.
Um Euch die Möglichkeit zu geben, einen Raspberry Pi 3B+ zu ergattern, stelle ich diese heute 16 Uhr in den Online Shop.
Um so viele Kunden wie möglich glücklich zu machen, haben wir uns für eine Höchstmenge von 5 Stück pro Haushalt entschieden.
Solltet Ihr ein Industriekunde sein, schreibt uns bitte eine E-Mail an support@pi3g.com und gebt hierbei bitte folgendes an:
Bitte beachtet hierbei, dass wir ausschließlich an Industriekunden Großmengen verkaufen! Wir geben Scalpern keine Chance!
Liebe Grüße aus Leipzig,
Eure Stephie
-----------------------------------------------------------------------------
Hello dear ones,
We have unexpectedly received a large shipment of Raspberry Pi 3B+.
To give you the chance to get your hands on a Raspberry Pi 3B+, I'm putting them in the online shop today at 4pm.
To make as many customers as possible happy, we have decided on a maximum quantity of 5 pieces per household.
If you are an industrial customer, please send us an email to support@pi3g.com and include the following information:
Please note that we only sell bulk quantities to industrial customers! We do not give scalpers a chance!
Best regards,
Stephie
UPDATE Stephie 19.07.2023: Alex ist bereits fleißig am Packen. Wir konnten heute auch bereits die Hälfte der Bestellungen an DHL übergeben. Bitte habt noch ein wenig Geduld mit dem Versand der Pis. Wir sind aktuell nur noch zu zweit. Alex wird heute und morgen noch mit dem Packen Eurer Bestellungen beschäftigt sein. Wir möchten Euch nur bitten von Rückfragen zum Versand á la "Ist mein Paket bereits versendet?" Abstand zu nehmen. Ihr bekommt direkt nach dem Packen eine Versandbestätigung von DHL mit der Sendungsnummer. Vielen lieben Dank!
Hallo Ihr Lieben!
Es sind wieder ein paar Raspberry Pi 4 mit 4 GB und 8 GB verfügbar.
Wir konnten somit unseren Shop wieder ein wenig befüllen.
Denk bitte daran, dass wir die Mengen noch pro Haushalt beschränken müssen.
Somit versuchen wir, dass es fair für alle bleibt und jeder einen Pi bekommen kann.
Wir behalten uns vor, Bestellungen zu stornieren, bei denen wir davon ausgehen können, dass sich jemand an den Pis bereichern möchte.
Da die Verfügbarkeit auch demnächst wieder deutlich besser werden soll, hat sich der "Hamsterkauf" für Scalper dann auch hoffentlich erledigt.
Das Reservierungstool wurde bereits bearbeitet. Solltet Ihr hier bereits einen Pi reserviert haben, seht bitte in Euer Postfach (Auch im Spam Ordner) nach.
Solltet Ihr jetzt kein Glück haben, nutzt einfach noch bis zur totalen Marktentspannung weiter das Reservierungstool:
https://picockpit.com/raspberry-pi/de/reserviere-deinen-raspberry-pi-heute-aus-dem-vorrat-woes-durch-beteiligung-an-unserer-warteliste/
Beste Grüße
Alex
wir haben eine gute Neuigkeit:
Wir haben heute eine Lieferung von 450x Raspberry Pi Zero WH erhalten.
Raspberry Pi möchte hiermit auch Privatkunden die Möglichkeit geben, einen Pi Zero WH zu kaufen.
Diese werde ich am Dienstag, spätestens Mittwoch, im Laufe des Tages auf folgende Sets verteilen:
Auch einzeln könnt Ihr einen ergattern: https://buyzero.de/collections/boards-kits/products/raspberry-pi-zero-wh-mit-bestucktem-header.
Wichtig hierbei: Beim Kauf eines einzelnen Pis gilt weiterhin die Einschränkung von einem Stück pro Haushalt. Auch wenn ihr den Pi Zero WH über die verschiedenen Seiten kauft.
Einzig und alleine beim Kauf von Sets haben wir uns auf eine Höchstmenge von 3 Stück pro Haushalt geeinigt.
Mein Kollege aus dem Versand wird dies prüfen und er ist damit sehr genau.
Wir möchten damit für Fairness sorgen und so viele wie möglich Kunden unterstützen und Scalpern keine Chance geben ;)
Nutzt gern die "Benachrichten, wenn verfügbar"- Funktion auf den jeweiligen Seiten. Und bitte vermeidet Rückfragen, á la "habt ihr noch welche".
Hier gilt: Schnell sein lohnt sich.
Ein Hinweis zu den Preisen: Diese sind noch nicht angepasst. Hier sind bis zum Dienstag, 02.05.2023 noch die alten Preise hinterlegt. Lasst Euch dadurch bitte nicht verwirren. Mit der Einstellung der Pis, trage ich auch die aktuellen Preis ein.
Ich wünsche Euch ein schönes langes Wochenende.
Liebe Grüße aus Leipzig,
Eure Stephanie
wir haben heute eine Lieferung von Raspberry Pi erhalten und können damit einen großen Teil der reservierten Raspberry Pi 4 4GB und 8GB erfüllen.
Aktuelle Zahlen vom 19.04.2023
Durch die Erfüllung der Reservierungen kann es zu Herausforderungen bei der Anzeige der Position kommen. Bitte ignorieren Sie diesen Fehler. Siehe hierzu auch unseren Blogpost: Gründe für Fehler beim Reservierungstool.
Folgende Bitte haben wir noch an alle Reservierungskunden
Hinweise
Wir bedanken uns für die Reservierungen bei Ihnen und wünschen Ihnen viel Freude mit den Pis :)
Liebe Grüße aus Leipzig,
Stephanie Götze
wir haben soeben folgenden Hinweis von DHL erhalten:
"Liebe Kund:innen,
im Zusammenhang mit der aktuellen Tarifrunde bei der Deutschen Post fanden in der vergangenen Nacht und finden heute, am Freitag den 27.01.2023, erneut in verschiedenen Regionen bundesweit Warnstreiks von Mitgliedern der Gewerkschaft ver.di statt, die sich heute von den Sortierzentren verstärkt in die Zustellung verlagert haben. Da die Beteiligung an den heutigen Streiks in den einzelnen Regionen und Standorten unterschiedlich hoch ausfällt, werden sich diese auch entsprechend unterschiedlich auswirken. So kann es zu Verzögerungen bei der Abholung und Auslieferung von Brief- und Paketsendungen kommen. Diese können dazu führen, dass Briefe und Pakete erst einige Tage später, d.h. je nach Ende der Streikaktivitäten vor Ort erst in der kommenden Woche ausgeliefert werden können. Dies gilt auch für Sendungen, die durch unsere Partner im Ausland zugestellt werden.
Mit freundlichen Grüßen
Ihr Post & DHL Team"
Wir möchten Euch daher um Geduld bitten, wenn Euer Paket länger unterwegs ist. Wenn sich in der Sendungsverfolgung innerhalb von 14 Tagen keine Änderungen ergeben, schreibt uns bitte eine Nachricht. Vorher können wir leider keinen Nachforschungsantrag bei DHL stellen.
Vielen Dank für Euer Verständnis.
Liebe Grüße aus Leipzig,
Stephanie Götze
Quelle des Bildes: https://www.dhl.de/de/privatkunden/hilfe-kundenservice/sendungsverfolgung.html
]]>Heute hat Raspberry Pi das neue Camera Module 3 veröffentlicht. Es basiert auf dem IMX708 Sensor von Sony und bietet unglaubliche 12 Megapixel!
Darüber hinaus überzeugt die dritte Version von Raspberry Pis Kamera durch verbesserte Schwachlichtsensitivität, High Dynamic Range (HDR) Unterstützung und motorisierten Autofokus.
Das bedeutet schärfere Bilder und besseren Kontrast und das sogar bei einem etwas niedrigeren Preis als das Raspberry Pi Camera Module 2 (derzeit bei uns mit 18% Rabatt).
Genau wie die Vorgänger ist auch für das Camera Module 3 eine Variante für sichtbares Licht und eine Variante (NoIR) für sichtbares und infrarotes Licht erhältlich.
Doch es wird noch besser:
Zusätzlich zu der standartlinse mit einem Winkel von 76° wird auch eine Weitwinkellinse mit 120° angeboten!
Beide Variante für sichtbares Licht sind ab heute in unserem Shop erhältlich.
Eine weitere Neuerung stellt die neue Raspberry Pi High Quality Camera mit M12 Mount dar. So können Linsen mit M12 Mount direkt an der High Quality Camera angebracht werden.
Infos vom 09.01.2023: Das Camera Module 3 wird zum Start in der normalen Variante und in der Weitwinkel Variante verfügbar sein. Die NOIR Varianten (normal NOIR und Weitwinkel NOIR) sind leider noch nicht auf Lager.
Die Linsen der M12 HQ Cam haben wir noch nicht auf Lager. Sobald wir die Lieferungen erhalten, aktualisieren wir den Blogpost.
Photo by Patrick Pahlke on Unsplash
]]>da Raspberry Pi noch etwas Zeit benötigt um den Raspberry Pi Pico WH zu liefern. Haben wir 250x Pico W mit Headern von unserem Bestücker löten lassen.
Diesen könnt Ihr ab sofort hier erwerben. Die Menge habe ich wieder auf alle möglichen Sets (Essentials, Maker und Deluxe Set) verteilt. Auf dem Bild sehr Ihr auch wie die Stiftleisten gelötet worden sind.
]]>auf der Seite https://www.dhl.de/de/privatkunden/kampagnenseiten/coronavirus.html informiert DHL über alle Lieferschwierigkeiten weltweit.
Prüft bitte vor dem Versand, ob eine Lieferung in Euer Land möglich ist.
Vielen Dank!
Liebe Grüße,
Stephanie
Bildquelle: https://unsplash.com/@qiweiyang
-------------------------------------------
Hello dear ones,
On page https://www.dhl.de/en/privatkunden/kampagnenseiten/coronavirus.html, DHL informs you about all delivery problems worldwide.
Please check before sending if a delivery to your country is possible.
Thank you very much!
Kind regards,
Stephanie
Picture source: https://unsplash.com/@qiweiyang
]]>auf Grund der aktuellen Chip- und Komponentenknappheit erhalten wir die Ware nur auf Zuteilung. Auch andere Produkte haben momentan einige Wartezeiten.
Auf dieser Seite halten wir Euch auf dem Laufenden, was die Verfügbarkeit von verschiedenen Produkte anbetrifft.
Wir sind leider immer noch massiv mit Arbeit überlastet und zudem noch personell unterbesetzt. Schaut gern in den verschiedenen Blogpost nach, ob da etwas passendes für Euch dabei ist.
UPDATE 22.07.2022 - Hintergründe: Ich habe mehrere Kommentare mal zum Anlass genommen und möchte Euch heute mal etwas zu den Hintergründen erklären, warum manches bei uns ein wenig länger dauert. Gerade im Hinblick auf den Raspberry Pi Zero 2W:
Wir sind ein sehr kleines Team, es gibt Alex, der den Versand übernimmt, es gibt den Chef der sich um die Preise kümmert. Und es gibt mich, Stephie. Ich kümmere mich um den Einkauf, Verkauf, Bestellungen und um die meisten Kundenanfragen. Daher sind wir mit der Arbeit leider immer mal wieder überlastet. Ich selbst bin in den letzten drei Monate dreimal krankheitsbedingt ausgefallen, davon zweimal mit Corona. Durch diesen Ausfall staut sich leider die Arbeit immer mal wieder auf...
Wir sind dabei unser Team noch weiter aufzubauen, jedoch ist dies leider nicht so einfach, gute Mitarbeiter zu finden.
Zum anderen kam jetzt hinzu, dass wir einem Industriekunden 300x Pi Zero 2 W austauschen mussten, weil diese defekt war. Die Ware lag also bei uns nicht rum. Wir möchten Euch auf keinen Fall verärgern. Wir geben unser bestmöglichstes. Wir hoffen hierbei immer auf Euer Verständnis.
Alle Raspberry Pis mit Kühlkörper
Die Kühlkörper haben wir bereits bestellt. Jedoch werden diese voraussichtlich erst Ende Januar / Mitte Februar geliefert.
UDPATE 09.05.2022: Die Kühlkörper sind letzte Woche bei uns eingetroffen. Wir werden also, wenn wir Ende der Woche die Pis online stellen, auch wieder welche mit Kühlkörper in den Shop stellen.
UDPATE 09.05.2022: Leider haben wir aktuell keine genauen Informationen, wann wieder ein Schwung 2GB kommt. Neue Infos werde ich im Laufe der Woche erhalten
UPDATE 22.07.2022: Wir erhalten in den nächsten 14 Tagen eine größere Lieferung Raspberry Pi 4 2GB. Wir informieren Euch wieder vorab, wann wir diese genau online stellen.
UPDATE: 23.08.2022: Die Lieferung ist bei uns eingetroffen. Damit es wieder für alle fair bleibt, stellt Alex diese extra für Euch am Sonntag, den 28.08.2022 um 18:00 Uhr online. Denkt bitte auch hier wieder an die 2 Stück Regelung! Da es wir eine manuelle Bearbeitung der Bestellung vornehmen, fallen auch getrennte Bestellungen auf! Bleibt daher bitte fair.
Damit es wieder ein bisschen übersichtlicher wird, habe ich mal die ganz alten Einträge raus genommen.
UDPATE 09.05.2022: Geplant ist, dass wir Ende der Woche eine Lieferung erhalten. Wir werden diese wie immer vorab ankündigen. Setzt Euch trotzdem gern die Erinnerungsfunktion.
UPDATE 22.07.2022: Wir sind gerade am Einrichten unseres Reservierungstool. Mit diesem Tool, könnt Ihr Euch einen Raspberry Pi (4GB/8GB) reservieren. Alle Infos dazu erfolgen nochmal in einem separaten Post.
UPDATE: 23.08.2022: Wir erhalten leider bis Ende des Jahres nur noch geringe Mengen. Nutzt daher bitte das Reservierungstool um Euch einen Raspberry Pi 4 4GB zu sicher.
Damit es wieder ein bisschen übersichtlicher wird, habe ich mal die ganz alten Einträge raus genommen.
UPDATE 02.06.2022: Heute kam unverhofft noch eine Lieferung vom Raspberry Pi 4 8GB. Daher möchten wir Euch mal wieder die Möglichkeit geben einen zu ergattern. Wir stellen sie am Pfingstmontag, 06.06.2022. um 11.00 Uhr in den Shop. Die 2 Stück Regelung gilt weiterhin. Alle weiteren Bestellungen werden ohne Angaben von Gründen storniert! Wer in letzter Zeit bereits einen kaufen konnte, gebt den anderen bitte auch eine Chance.
UPDATE 22.07.2022: Wir sind gerade am Einrichten unseres Reservierungstool. Mit diesem Tool, könnt Ihr Euch einen Raspberry Pi (4GB/8GB) reservieren. Alle Infos dazu erfolgen nochmal in einem separaten Post.
UPDATE: 23.08.2022: Auch hier wird nochmal eine Lieferung bei uns erwartet. Wir wissen nur noch nicht, wann diese bei uns sein wird.
Wenn Ihr nur einen einzelnen Pi (mit und ohne Zubehör möglich) benötigt, nutzt bitte das Reservierungstool um Euch einen Raspberry Pi 4 8GB zu sicher.
Wir sind momentan leider massiv mit Arbeit überlastet und zudem noch personell unterbesetzt. Wir sind aktuell jedoch dabei, eine Erinnerungsfunktion im Shop zur Verfügung zu stellen. Was heißt das? Ihr könnt dann, sobald es live ist, Eure E-Mail-Adresse hinterlegen. Und sobald wir etwas in den Shop stellen, bekommt ihr gleich eine E-Mail. Jedoch dauert dies noch ein wenig.
Wir haben diesen bereits bestellt. Jedoch konnte man uns keinen genauen Liefertermin mitteilen.
UDPATE 09.05.2022: Wir haben eine Lieferung erhalten, jedoch muss ich noch mit einem Industriekunden klären, wie viele er davon benötigt.
UPDATE 22.07.2022: Wir haben aktuell keine Information, wann wir hier wieder eine Lieferung erhalten.
UPDATE 09.02.2022: Uns wurde die Lieferung leider stark eingekürzt, sodass wir nur die manuellen Bestellungen (Industriekunden) mit der Lieferung abdecken konnten. Ein neuer Liefertermin ist nicht bekannt.
UDPATE 09.05.2022: Hier werden wir voraussichtlich erst im August wieder Ware erhalten.
UPDATE 13.09.2022: Die Lieferung wurde auf Ende September verschoben. Aktuell haben wir jedoch so viele Firmenanfragen, dass ich voraussichtlich kein Kontingent für den Shop frei geben kann... Bedenkt hierbei bitte daran, dass dort immer Arbeitsplätze dran hängen. Wovon wir jedoch mehr erhalten ist der 3B+.
Geplant ist die nächste Lieferung für Ende KW 48. Die Lieferung ist bereits bei uns eingetroffen, wir arbeiten die Backorders ab und stellen den Rest in den Online Shop. Dies wird voraussichtlich am Nachmittag des 04.12.2021 geschehen.
UPDATE 10.12.2021: Leider ist auch der Raspberry Pi 3B+ schon wieder vergriffen. Einen neuen Liefertermin gibt es leider nicht.
UDPATE 09.05.2022: Hier gibt es leider keine Neuigkeiten. Die Produktion des 3B+ ist bis Ende des Jahres auf ein Minimum zurück gefahren.
UPDATE 13.09.2022: Hier habe ich gute Neutigkeiten, wir erhalten unverhofft eine Lieferung gegen Ende September. Auch diese werden wir wieder vorab ankündigen.
7'' Display für den Raspberry Pi mit Touchscreen
Wird uns Mitte Dezember geliefert.
UPDATE 15.12.2021: Uns wurde die Displays soeben geliefert.
UDPATE 09.05.2022: Wir haben vor ca. 14 Tagen eine Lieferung erhalten, sodass dies auch wieder einzeln verfügbar ist.
UPDATE .28.02.2022: Die kleine Menge war leider bereits für eine Firma reserviert. Jedoch habe ich heute von einer neuen Lieferung erfahren. Diese wird in ca. 14 Tagen bei uns eintreffen.
UPDATE 15.03.2022: Die Lieferung hat sich leider verschoben. Sie wird Ende März bei uns eintreffen.
UDPATE 09.05.2022: Wir haben die Lieferung erhalten, jedoch müssen wir den Preis noch einmal neu kalkulieren. Grund hierfür ist der gestiegene Dollarkurs.
UPDATE 13.09.2022: Auf Grund eines Austauschs einer Industriekundenbestellung haben wir leider keinen Lagerbestand! Die nächste Lieferung ist leider erst für Q1 / 2023 geplant.
UPDATE 28.02.2022: Wir bekommen in den nächsten 14 Tagen eine neue Lieferung Pi Zero 2 W. Ein Teil der Bestellung wird direkt an den Bestücker versendet. Sodass in ca. 4 Wochen der Pi Zero 2 WH wieder verfügbar ist.
UDPATE 09.05.2022: Wir haben einige bereits durch unseren Bestücker bestücke lassen. Jedoch müssen wir auch hier den Preis noch einmal neu kalkulieren. Grund hierfür ist der gestiegene Dollarkurs.
UPDATE 13.09.2022: Hier haben wir jetzt eine kleine Menge auf Lager erhalten. Diese werden wir voraussichtlich im Laufe der kommenden Woche in den Shop stellen. Wir schreiben aber auch hier wieder das genaue Datum vorab rein.
Für diese beiden Produkte ist uns kein genauer Liefertermin bekannt.
UPDATE: 04.02.2022: Auch hier gibt es gute Neuigkeiten. Der Pi Zero W ist auf dem Weg zu uns und wird voraussichtlich in KW 07/2022 bei uns eintreffen.
UPDATE 28.02.2022: Leider gab es hier einige Verzögerungen, sodass er nun in KW 10 / 2022 bei uns eintreffen soll.
UDPATE 09.05.2022: Wir haben die Lieferung erhalten, jedoch müssen wir den Preis noch einmal neu kalkulieren. Grund hierfür ist der gestiegene Dollarkurs.
UPDATE 13.09.2022: Hier sind leider einige Firmen auf uns zugekommen. Sodass wir keinen Lagerbestand mehr haben. Nächste Lieferung Q1 / 2023.
Raspberry Pi Pico / Pico W / Pico H / Pico WH
UPDATE 22.07.2022:
Raspberry Pi Pico W - Hier haben wir gute Neuigkeiten, wir haben gestern bereits die Lieferung erhalten, welche für Anfang August geplant war. Damit es für alle fair bleibt stellen wir diese am Sonntag, 24.07.2022 um 18:00 Uhr in den Shop.
Raspberry Pi Pico WH - Hierzu haben wir leider noch keinen Liefertermin erhalten.
Wir sind momentan leider massiv mit Arbeit überlastet und zudem noch personell unterbesetzt. Wir sind aktuell jedoch dabei, eine Erinnerungsfunktion im Shop zur Verfügung zu stellen. Was heißt das? Ihr könnt dann, sobald es live ist, Eure E-Mail-Adresse hinterlegen. Und sobald wir etwas in den Shop stellen, bekommt ihr gleich eine E-Mail. Jedoch dauert dies noch ein wenig.
einige von Euch haben bereits das Reservierungstool genutzt und sich einen Raspberry Pi 4 oder einen Google Coral USB Accelerator reserviert.
Einige Reservierungen konnten wir auch bereits erfüllen und an die Kunden versenden.
Sollte es Probleme bei der Reservierung geben, prüft bitte folgende zwei Punkte:
Sollten weitere Probleme auftreten, schreibt uns bitte eine E-Mail an support@pi3g.com.
Auf Grund des Reservierungstools sind bereit sehr viele Anfragen eingegangen. Da Alex und ich alleine an der Bearbeitung der Anfrage arbeiten, möchte ich Euch hiermit um ein wenig Geduld und damit verbunden, um Verständnis bitten, wenn Ihr nicht innerhalb von 2 Werktagen eine Antwort erhaltet. Wir geben für Euch unser Bestes!
Liebe Grüße aus Leipzig,
Eure Stephanie
Nach allem was wir von unseren Partnern Farnell und Raspberry Pi direkt hören wird der Sommer und frühe Herbst leider eine sehr trockene Saison für Raspberry Pis - es soll erst gegen Ende des Jahres wieder etwas besser werden. Die Pis werden also in der nächsten Zeit noch knapper, und die Wahrscheinlichkeit genau zur richtigen Zeit am Computer zu sein um einen zu kaufen geht gegen 0.
Wir finden das ist unfair unseren Kunden gegenüber! Jede*r sollte die Chance auf einen Pi haben.
Wir führen daher heute das erste Reservierungstool der Welt für Raspberry Pi 4 / 4 GB + 8 GB und Coral USB Accelerator ein!
In dieser fairen Warteschlange kann jeder Kunde der möchte einen Pi 4 / 4 GB, Pi 4 / 8 GB, oder Coral USB Accelerator reservieren. Wir teilen auf diese Reservierungen einen Teil der bei uns ankommenden Ware zu und arbeiten diese fair nach Eingang der Reservierungen ab.
Wer also früher reserviert erhält den Pi früher - nie wieder verpasste Chancen Ihren nächsten Pi 4 zu kaufen!
Das Reservation Tool finden Sie auf PiCockpit, unserem Raspberry Pi Webinterface.
Erstellen Sie einen kostenlosen PiCockpit Account oder melden Sie sich an, falls Sie schon registriert sind.
Nachdem Sie angemeldet sind finden Sie das Reservation Tool hier.
Im ersten Schritt überprüfen wir, ob wir zu Ihnen liefern können.
Danach stellen wir sicher dass Sie kein Roboter sind.
Keine Sorge falls Sie ein falsches Bild ausgewählt haben, versuchen Sie es einfach nochmal.
Nun sollten Sie eine E-Mail erhalten haben um Ihre E-Mail-Adresse zu bestätigen.
Falls Sie keine E-Mail erhalten haben, können Sie eine weitere anfordern.
Klicken Sie auf den Link in der E-Mail und danach im Reservation Tool auf CHECK VALIDATION.
Und schon haben Sie es geschafft! Jetzt können Sie entweder einen Pi 4 / 4GB, einen Pi 4 / 8GB oder einen Coral USB Accelerator reservieren.
Falls sie mehr als ein Gerät benötigen für Unternehmen, Lehreinrichtungen oder Industrielle Zwecke, kontaktieren Sie uns und wir versuchen eine Lösung zu finden.
Sollten Sie diese Auswahl nicht sehen, können Sie einen anderen Browser ausprobieren.
Natürlich können Sie den Pi 4 auch als Set reservieren.
Klicken Sie einfach auf Ausführung um Ihren Pi zu konfigurieren. Danach können Sie Ihr gewünschtes Raspberry Pi Modell und weitere Optionen wie Gehäuse oder Netzteil auswählen.
Wir versuchen den Preis abzuschätzen, dieser kann sich aber aufgrund von Währungsschwankungen ändern.
Im letzten Schritt müssen Sie lediglich die E-Mail Adresse ihres buyzero.de Accounts eingeben, für den Sie die Reservierung vornehmen möchten.
Klicken Sie danach auf Reserve your product um die Reservierung abzuschließen.
Wichtig: die Bezahlung erfolgt erst nachdem wir eine Lieferung an Pis erhalten haben und Ihnen einen Pi allokiert haben.
Bis dahin können Sie die Reservierung ganz einfach über das Reservation Tool stornieren.
Wenn Sie schon dabei sind, nutzen sie die Gelegenheit um unser PiCockpit Webinterface zu erkunden!
PiCockpit hat außerdem einen eigenen Newsletter. Dieser ist auf englisch verfasst.
Außerdem finden Sie dort unzählige Blogbeiträge rund um Technik und den Raspberry Pi.
Ist die Reservierung kostenlos?
Ja die Reservierung ist kostenlos. Sie werden per E-Mail benachrichtigt, sobald wir einen Pi (oder Coral USB Accelerator) für Sie allokiert haben. Danach haben Sie drei Tage für die Zahlung, bevor die Reservierung verfällt.
Ist die Reservierung verbindlich?
Die Reservierung ist unverbindlich für Sie und auch für uns. Wir geben unser bestes um Ihnen das Produkt nach Eingangsreihenfolge der Reservierungen zukommen zu lassen.
Allerdings behalten wir uns vor Reservierungen zu stornieren, einschließlich aber nicht ausschließlich, um Missbrauch des Reservierungs Tools zu verhindern.
Kann ich meine Reservierung stornieren?
Ja, solange wir noch kein Gerät für Sie allokiert haben, können Sie die Reservierung jederzeit ohne Angabe von Gründen über das Reservierungs Tool stornieren.
Kann ich mehr als einen Pi reservieren?
Unternehmen, Lehreinrichtungen oder Industriekunden, die mehr als einen Pi benötigen bitten wir, uns zu kontaktieren.
Aufgrund der hohen Nachfrage an Pis können wir leider nur einen Pi pro Privathaushalt reservieren.
Wie wird entschieden wer einen Pi bekommt?
Sobald wir eine Lieferung erhalten, werden die Geräte nach Reihenfolge der Reservierungen zugeordnet.
Sie erhalten eine E-Mail Benachrichtigung, wenn wir Ihnen ein Gerät zuordnen.
Ich kann kein Produkt auswählen
Leider kann es unter manchen Browsern zu Problemen mit dem Reservierungstool kommen. Bekannt sind Probleme mit Google Chrome. Wir empfehlen Ihnen, die Reservierung unter einem anderen Browser (bsp. Microsoft EDGE) vorzunehmen.
Ich habe weitere Fragen
Für Fragen zum Reservierungs Tool bitten wir Sie, einen Kommentar unter diesem Blog Post zu hinterlassen.
Für andere Fragen verwenden Sie bitte unser Kontaktformular.
]]>
|
Ein Modell von Grund auf zu trainieren, ist eine komplizierte und zeitaufwendige Angelegenheit. Doch statt ein eigenes Modell zu erstellen und es dann zu trainieren, kannst du ein vorhandenes Modell, das mit der Edge TPU des Dev Boards kompatibel ist, anpassen und teilweise umtrainieren. Diese Technik nennt sich Transfer Learning.
Ein neuronales Netzwerks von Grund auf zu trainieren, kann Tage an Rechenzeit in Anspruch nehmen. Zudem erfordert es eine große Menge an Trainingsdaten. Beim Transfer Learning kannst du mit einem Modell beginnen, das bereits für eine bestimmte Aufgabe trainiert ist, und dann ein zusätzliches Training durchführen, um dem Modell neue Klassifizierungen beizubringen.
Es gibt zwei unterschiedliche Techniken des Transfer Learning auf dem Dev Board Mini. Beim Weight Imprinting wird die Ausgabe des Basismodells verwendet. Diese Werte werden zur Berechnung neuer Gewichte in der letzten versteckten Schicht des neuronalen Netzwerks, direkt vor der Ausgabeschicht, eingesetzt. Das ermöglicht ein effektives Training neuer Klassen mit wenigen Beispielbildern. Backpropagation ist die traditionellere Trainingsstrategie, die im Allgemeinen eine höhere Genauigkeit erzielt, aber mehr Bilder und mehrere Trainingsiterationen erfordert. Auch hier werden nur die Gewichte für die letzte versteckte Schicht anhand der Abweichungen in der Ausgabeschicht aktualisiert.
Um zu sehen, wie das funktioniert, verwendest du ein Beispielskript, das die ImprintingEngine verwendet, um mit einem Modell Transfer Learning auf dem Dev Board durchzuführen. Die ImprintingEngine-API kapselt das gesamte Modell. Du kannst damit Trainingsdaten übergeben, um die Gewichte in der letzten Schicht zu aktualisieren und dem Modell neues Wissen beizubringen.
Das bereits trainierte Modell erkennt 1.000 Bilder aus dem ImageNet-Datensatz. Diese Bild-Datenbank enthält mehr als eine Million Trainingsdateien. In diesem Beispiel trainierst du das Modell neu, damit es zehn neue Klassen, d.h. zehn weitere Objektarten, erkennt.
Verbinde dein Board mit dem Host-PC, öffne die Git Bash und starte mit mdt shell das Terminal von Mendel Linux. Dann legst du dein Verzeichnis fest, in dem du das Projekt speicherst. Dazu führst du im Terminal die folgenden beiden Befehle durch:
DEMO_DIR=$HOME/edgetpu/retrain-imprinting
mkdir -p $DEMO_DIR
Nun lädst du das vortrainierte Modell herunter. Es handelt sich dabei um eine modifizierte Version von MobileNet v1. MobileNets lassen sich effizient auf Geräten die TensorFlow Lite unterstützen ausführen – das Dev Board ist ein solches Gerät. Das erledigt der Befehl
wget https://github.com/google-coral/test_data/raw/master/mobilenet_v1_1.0_224_l2norm_quant_edgetpu.tflite -P $DEMO_DIR
Er gehört in eine einzelne Befehlszeile. Lade nun den neuen Trainingsdatensatz herunter. Er enthält zehn Klassen mit jeweils rund 20 Fotos. Ein Blick in die Labels-Datei „imagenet_labels.txt“ zeigt, dass diese zehn Klassen nicht zu den 1.000 Klassen zählen, die das Modell bereits kennt. Führe nun nacheinander die folgenden drei Befehle aus:
wget https://dl.google.com/coral/sample_data/imprinting_data_script.tar.gz -P $DEMO_DIR
tar zxf $DEMO_DIR/imprinting_data_script.tar.gz -C $DEMO_DIR
bash $DEMO_DIR/imprinting_data_script/download_imprinting_test_data.sh $DEMO_DIR
Das Herunterladen der rund 200 Bilder kann eine Weile dauern. Jetzt holst du dir den Code, der das Transfer Learning durchführt. Wenn du die Artikel-Serie bis hierhin nachvollzogen hast, dann hast du den Code bereits auf deinem Dev Board. Andernfalls führst du den entsprechenden Download damit durch:
mkdir coral && cd coral
git clone https://github.com/google-coral/pycoral.git
cd pycoral/examples/
Jetzt kommt der große Moment. Da startest das Transfer Learning auf der Edge TPU:
python3 imprinting_learning.py \
--model_path ${DEMO_DIR}/mobilenet_v1_1.0_224_l2norm_quant_edgetpu.tflite \
--data ${DEMO_DIR}/open_image_v4_subset \
--output ${DEMO_DIR}/retrained_imprinting_model.tflite
Das dauert nur wenige Minuten. Das neu trainierte Modell ist unter dem Namen „retrained_imprinting_model.tflite“ gespeichert.
In diesem Transfer Learning lernt das Modell mit wenigen Trainingsdaten zehn neu Klassen kennen wie Seesterne, Katzen und Wecker.
Nun gilt es herauszufinden, was es gelernt hat. Eine Katze soll als Beispiel dienen. Zunächst lädst du ein Katzenfoto von Flickr herunter, das das Modell dann erkennen soll:
curl -o ${DEMO_DIR}/cat.jpg https://c4.staticflickr.com/4/3685/10013800466_8f2fb8697e_z.jpg
Dann testest du das neu trainierte Modell mit Hilfe des Python-Skripts „classify_image.py“.
python3 classify_image.py \
--model ${DEMO_DIR}/retrained_imprinting_model.tflite \
--label ${DEMO_DIR}/retrained_imprinting_model.txt \
--Eingabe ${DEMO_DIR}/cat.jpg
Als Ergebnis erscheint etwas wie
cat: 0.95312
Voilà. Durch das Training mit nur wenigen Bildern erkennt das Modell das Tier auf dem Foto mit einer Wahrscheinlichkeit von 95,3 Prozent als Katze. Du hast erfolgreich ein Transfer Learning auf deinem Dev Board durchgeführt.
Diese Katze erkennt dein neu trainiertes Modell mit einer Wahrscheinlichkeit von 95,3 Prozent.
Um mit eigenen Datensätzen zu experimentieren, fügst du einfach ein neues Verzeichnis im Verzeichnis „open_image_v4_subset“ hinzu, und speicherst dort einige Fotos einer neuen Klasse. Rund ein Dutzend sollte genügen. Dann wiederholst du die Schritte mit „imprinting_learning.py“ und „classify_image.py“, um das Modell neu zu trainieren und eine Inferenz durchzuführen.
Nun lernst du noch die zweite Technik des Transfer Learning kennen. Sie liefert genauere Ergebnisse, benötigt aber mehr Trainingsmaterial und ist auf Modelle zur Bilderkennung beschränkt. Um ein Training durchzuführen, lässt du die Trainingsdaten durch das Basismodell laufen und speist dann die Ergebnisse in die entsprechende Schicht ein.
In diesem Beispiel geht es darum, Blumen zu erkennen. Im ersten Schritt richtest du wieder Verzeichnis ein, in dem du das Projekt speicherst:
DEMO_DIR=$HOME/edgetpu/retrain-backprop
mkdir -p $DEMO_DIR
Dann lädst du einen Datensatz mit Blumenbildern herunter und extrahierst ihn:
wget http://download.tensorflow.org/example_images/flower_photos.tgz
tar zxf blumen_fotos.tgz -C $DEMO_DIR
Da siehst an der Größe des Datensatzes, dass hier wesentlich mehr Trainingsdaten erforderlich sind. Statt 10 bis 20 sind hier mehrere Hundert Bilder für eine neue Klasse notwendig.
Jetzt holst du das Basismodell auf dein Dev Board. Dabei handelt es sich um eine Version des neuronalen Netzwerks ohne die letzte verbundene Schicht und vortrainiert auf ImageNet. Eine manuelle Möglichkeit, diese Schichten zu entfernen, liefert der Python-Befehl tflite_convert.
wget https://github.com/google-coral/test_data/raw/master/mobilenet_v1_1.0_224_quant_embedding_extractor_edgetpu.tflite -P $DEMO_DIR
Wechsle in das Verzeichnis /home/mendel/coral/pycoral/examples. Dann startest du das Transfer Learning mit Backpropagation auf der Edge TPU:
python3 backprop_last_layer.py \
--data_dir ${DEMO_DIR}/flower_photos \
--embedding_extractor_path \
${DEMO_DIR}/mobilenet_v1_1.0_224_quant_embedding_extractor_edgetpu.tflite \
--output_dir ${DEMO_DIR}
Das dauert mehrere Minuten, und im Terminal siehst du die Trainingsprotokolle. Jetzt probierst du aus, ob das neu trainierte Modell Blumen erkennt. Lade ein Rosenbild von Open Images herunter:
curl -o ${DEMO_DIR}/rose.jpg https://c2.staticflickr.com/4/3062/3067374593_f2963e50b7_o.jpg
Dann lässt du das Modell wiederum durch das Skript „classify_image.py“ laufen.
python3 classify_image.py \
--model ${DEMO_DIR}/retrained_model_edgetpu.tflite \
--label ${DEMO_DIR}/label_map.txt \
--Eingabe ${DEMO_DIR}/rose.jpg
Das Ergebnis lautet etwa
roses: 0.99656
Das bedeutet, das Modell hat das Motiv mit einer Wahrscheinlichkeit von 99,7 Prozent als Rose erkannt.
Im untenstehenden Kasten findest du Links mit Ausgangsmaterial für weitere Experimente. Viel Spaß!
Ausblick: CoralAI Dev Board MicroDie Familie der Coral AI Dev Boards bekommt Zuwachs. Das Coral Dev Board Micro verfügt über eine eingebaute Kamera mit einer Auflösung von 324 x 324 Pixel, ein Mikrofon und eine Coral Edge TPU. Es verfügt über 512 MByte RAM und 1 GByte Flash-Memory. Ein Wifi/Bluetooth-Modul und ein Ethernet/POE-Modul sollen separat erhältlich sein. Der Preis und das genaue Erscheinungsdatum stehen noch nicht fest. Das Dev Board Micro ist insbesondere für geringe Energieaufnahme optimiert worden. Das Coral Dev Board Micro bietet eine integrierte Kamera und steht bereits in den Startlöchern. |
Nützliche LinksHier findest du eine Reihe von Python-Skripts, um bestimmte Modelle auszuprobieren und Transfer Learning durchzuführen.
Das ist das zentrale Sammelbecken für Modelle, die bereits im geeigneten Modellformat TensorFlow Lite vorliegen. Sie müssen mit dem Edge TPU Compiler für das Dev Board compiliert werden. Dazu erscheint in diesem Blog ein separater Artikel.
Modelle für die Coral Edge TPU Auf dieser Seite findest du zahlreiche trainierte Modelle, die schon für die Coral Edge TPU kompiliert und somit sofort einsatzbereit sind.
Hier sind viele Modell-Kategorien wie Objekterkennung, Spracherkennung und Posenschätzung aufgeführt. Die jeweiligen Seiten erklären detailliert, wie das Modell aufgebaut ist und wie es funktioniert. |
Die Gestenerkennung ist eine Computer-Vision-Technik, die menschliche Formen in Bildern und Videos erkennt und feststellen kann, wo sich etwa die Ellbogen, die Schultern oder die Hände einer Person befinden. Streng genommen handelt es sich somit um eine Posenerkennung. Das entsprechend trainierte Modell nennt sich PoseNet. Es ist dafür optimiert, auf der Edge TPU deines Dev Board Mini zu laufen.
PoseNet erkennt natürlich nicht, wer sich auf einem Bild befindet, sondern schätzt lediglich ab, an welchen Stellen sich die wichtigsten Körpergelenke aufhalten.
|
Wenn du diese Serie von Anfang an gelesen und alle darin beschriebenen Schritte durchgeführt hast, dann erfüllst du bereits sämtliche Software-Voraussetzungen und kannst sofort loslegen. Du kannst es auch zunächst nochmals überprüfen und bei fehlenden Komponenten diese nachinstallieren. Zunächst erstellst du dafür eine Liste aller in Mendel Linux installierten Pakete mit dem Befehl
dpkg -l > pakete.txt
Dann zeigst du die Liste seitenweise an mit
less pakete.txt
Schaue nach, ob die Pakete „python3-pycoral“, „libedgetpu1-std“ und „python3-tflite-runtime“ vorhanden sind. Andernfalls installierst du sie, indem du den oder die passenden Befehle ausführst:
sudo apt install python3-pycoral
sudo apt install python3-tflite-runtime
sudo apt install libedgetpu1-std
Das Modell für die Erkennung und die übrigen benötigten Dateien befinden sich auf in einem Repository auf Github. Um die Ordnung zu bewahren, installierst du alles in einen separaten Ordner, den du mit
mkdir gesten && cd gesten
erstellst und sogleich dorthin wechselst. Dann klonst du das Github-Repository auf dein Dev Board Mini. Dazu führst du den folgenden Befehl aus:
git clone https://github.com/google-coral/project-posenet.git
Abschließend installierst du noch einige Python-Libraries. Wechsle dazu in das Unterverzeichnis „project-posenet“. Das Bash-Skript, das die Arbeit für dich erledigt, führst du aus mit
sh install_requirements.sh
Nach wenigen Sekunden ist es geschafft. Jetzt hast du auf der Softwareseite alles beisammen, was du für die Gestenerkennung mit deinem Dev Board Mini benötigst.
An dieser Stelle verbindest du das Dev Board über den microHDMI-Anschluss mit einem Monitor. Um das Dev Board bedienen zu können, verbindest du eine Tastatur mit Touchpad mit dem USB-OTG-Anschluss. Das ist der rechte der beiden USB-C-Anschlüsse. Eventuell ist dafür ein Adapter notwendig.
Das erste Beispiel ist sehr einfach. Es lädt ein Bild herunter und gibt die entsprechenden Keypoints aus. Was das genau ist, erläutert der Kasten am Ende des Beitrags. Starte das Beispielmit
python3 simple_pose.py
Das Skript lädt zunächst das Bild eines indischen Paares herunter und speist es in das Modell ein. Als Ergebnis erhältst du eine Liste mit den Namen der Gelenke, den Koordinaten und den Konfidenzwerten. Diese Werte reichen von 0, nicht erkannt, bis 1, sehr zuverlässig erkannt. Du siehst, wie das Modell die unterschiedlichen Körperteile der beiden Personen auf dem Foto unterschiedlich gut erkennt. Es wirft für alle erkannten Punkte die Variablen label.name, keypoint.point[0], keypoint.point[1] und keypoint.score aus.
Das ist das Ausgangsbild für die Erkennung mit dem PoseNet-Modell.
Das Ergebnis erscheint in Textform und gibt den Namen und die Position der erkannten Körperteile an sowie einen Konfidenzwert.
Ein weiteres Beispiel setzt die Coral Camera ein. Es übergibt den Stream der Kamera an PoseNet und zeichnet die Pose in ein Overlay ein. Damit siehst du, wie das Modell arbeitet und wie sich seine Ausgaben darstellen lassen. Stelle sicher, dass du dich im Verzeichnis „project-posenet“ befindest, und führe das Python-Programm aus mit
python3 pose_camera.py
Du siehst in einem Overlay den Stream der Kamera. Das Programm analysiert fortlaufend das Bild, markiert die erkannten Keypoints und verbindet sie. Diese Erkennung funktioniert ziemlich gut. Wenn du dich bewegst, dann bewegt sich dein Gegenpart im Overlay analog. Die Erkennung läuft im Beispiel mit 12 FPS. Optional kannst du das Flag --mirror hinzufügen, um das Bild zu spiegeln:
python3 pose_camera.py --mirror
Das Modell analysiert fortlaufend den Stream der Kamera und zeichnet die erkannten Keypoints in einem Overlay ein.
Im Unterverzeichnis „models“ findest du drei PoseNet-Modelldateien für verschiedene Auflösungen. Größere Auflösungen sind natürlich langsamer, aber sie ermöglichen ein größeres Sichtfeld, und somit lassen sich weiter entfernte Posen korrekt verarbeiten. Die Standardauflösung beträgt 640 x 480 Pixel. Um die größtmögliche Auflösung zu verwenden, fügst du einen entsprechenden Parameter an den Befehl an:
python3 pose_camera.py --res 1280x720
Es wäre interessant zu sehen, ob das Modell auch Puppen erkennt oder Schwarz-Weiß-Fotos. Du kannst auch ausprobieren, ob es dich noch erkennt, wenn du eine Maske an hast oder eine Mütze trägst.
Das nächste Beispiel zeigt, wie sich das Dev Board und PoseNet einsetzen lassen, um menschliche Verhaltensweisen auf anonyme und datenschutzfreundliche Weise zu analysieren. PoseNet wandelt dabei das Bild eines Menschen in eine Art Skelett um und erfasst seine Position und Bewegung über die Zeit. Das Programm verwirft alle identifizierenden Merkmale und das ursprüngliche Kamerabild. Das Dev Board führt die gesamte Bildanalyse lokal durch., Fremde Dritte, zum Beispiel Cloud Anbieter, bekommen die Daten daher nicht zu sehen, die Anonymität bleibt gewahrt. Starte die App mit
python3 anonymizer.py
Zunächst sieht alles so aus wie bei dem vorherigen Beispiel. Jetzt gehst du aus dem Bild heraus. Das Programm wartet, bis sich niemand mehr im Bild befindet, und speichert dann das Hintergrundbild. Tritt nun wieder in das Bild ein. Du siehst deine aktuelle Pose über einem statischen Bild des Hintergrunds. Sämtliche Merkmale, die dich identifizieren könnten, sind entfernt.
Um eine anonyme Auswertung zu ermöglichen, sind hier nur die Keypoints vor einem statischen Hintergrund zu sehen.
Mögliche Anwendungen: Ein Ladenbesitzer möchte das Verhalten der Kunden beim Durchqueren des Ladens untersuchen, um den Warenfluss zu optimieren und die Platzierung der Produkte zu verbessern. Oder ein Museum will verfolgen, welche Bereiche zu welchen Zeiten am stärksten frequentiert sind, um zu erfahren welche Exponate in einer Ausstellung besonders gut beim Publikum ankommen. Mit dem Dev Board ist dies möglich, ohne das Bild einer Person direkt aufzunehmen oder Daten an einen Cloud-Dienst zu streamen.
Grundsätzlich lassen sich mit Gesten auch Dinge steuern, ähnlich wie bei der Spracherkennung. Die Umsetzung einer Steuerung ist hier aber komplizierter. Denkbar ist etwa ein Musik-Synthesizer, den du mit den Händen steuern kannst. Je nach Haltung der Hände ändern sich Tonhöhe und Lautstärke. Ein solcher Software-Synthesizer ist Fluidsynth. Er lässt sich wie folgt installieren:
sudo apt install fluidsynth fluid-soundfont-gm
pip3 install pyfluidsynth
Jedem der 17 Keypoints die PoseNet erkennt ist eine X- und eine Y-Koordinate zugeordnet. Zwischen dem Ellbogen und der Hand lässt sich somit eine Linie ziehen, und die Lage dieser Linie bestimmt dann die Werte, die an den Synthesizer übergeben werden.
Unter den Dateien, die du für das Projekt heruntergeladen hast, befindet sich auch das Python-Skript „synthesizer.py“, das genau das ermöglichen soll. Wegen eines Fehlers im Skript funktioniert es derzeit nicht und gibt keinen Sound aus, zeigt aber die Herangehensweise für eine Steuerung per Geste.
Das PoseNet-Modell basiert auf einer zweistufigen Architektur, die ein spezielles neuronales Netzwerk (mit dem Namen “Convolutional Neural Network”, kurz CNN) und einen Dekodierungsalgorithmus umfasst. Bei einem CNN handelt es sich um eine Sonderform eines neuronalen Netzes, das sich besonders gut für die Verarbeitung von Bild- und Audiodaten eignet.
Die Gestenerkennung läuft in zwei Phasen ab: Ein RGB-Eingabebild wird durch das neuronale Netzwerk geleitet. Es ist darauf trainiert, sogenannte Heatmaps zu erzeugen, die die Position aller Schlüsselpunkte, also der Körperteile, in einem Bild vorhersagen. Außerdem erzeugt es Vektoren, die helfen, die Punkte zu verbinden. Dieser Teil läuft auf der Edge-TPU. Die Ergebnisse werden dann in den nächsten Schritt eingespeist.
Ein spezieller Algorithmus kommt zur Dekodierung von Posen zum Einsatz. Er ermittelt die Posen, die Positionen der Keypoints und die Konfidenzwerte. Der Dekodierungsalgorithmus verwendet die vom CNN erzeugten Heatmaps und Vektoren und stellt die Verbindung zwischen Körperteilen und Personeninstanzen her.
Ein Modell zu erweitern, ergibt hier anders als etwa bei der Bild- und Spracherkennung wenig Sinn. Die Auflösung für zusätzliche Keypoints wie etwa die Finger ist zu ungenau. Wie dort das sogenannte Transfer Learning in der Praxis funktioniert, das liest du im nächsten Beitrag.
Hier sind alle 17 Elemente zu sehen, die das KI-Modell PoseNet erkennen kann.
Wichtige Begriffe der Gestenerkennung
|
]]>
Diese neue Variante des beliebten Pico verfügt dank des CYW43439 Wireless-Chips über Wireless-Fähigkeiten. Genau wie der Pico ist das Herzstück jedes Pico W der RP2040, der erste eigene Siliziumchip von Raspberry Pi.
Darüber hinaus hat Raspberry Pi auch die Varianten Pico H und Pico WH herausgebracht.
Bestellen Sie jetzt Ihren Pico W in unserem Store.
Für einen schnellen Überblick sorgt unser Video.
Oder unsere Infografik.
Pico H - $5 - Ein Raspberry Pi Pico mit vorgelöteten Headern
Pico W - $6 - Ein Raspberry Pi Pico mit Funkverbindung
Pico WH - $7 - Ein Raspberry Pi Pico mit drahtlosen und vorgelöteten Anschlüssen.
Der Pico H und der Pico W wurden am 30. Juni 2022 auf den Markt gebracht, während der Pico WH im August 2022 auf den Markt kommen wird.
In diesem Beitrag werden wir die Gemeinsamkeiten und Unterschiede zwischen dem Pico W und dem Pico erklären. Natürlich werden wir auch einige coole Pico W Projekte vorstellen.
Im Grunde genommen ja.
Aber es gibt einen kleinen Unterschied bei den SWD-Debug-Headern und es gibt keine Rasterung (halbkreisförmige Löcher am Rand) an den Pins.
Um den SWD-Debug-Header auf dem Pico H zu verwenden, müssen Sie diese Stecker verwenden: 3-poliger JST-'SH'-Stecker mit 1,0 mm Abstand, entweder BM03B-SRSS-TB (oberer Eingang) oder SM03B-SRSS-TB (seitlicher Eingang) oder kompatible Alternativen.
Die Erdungsstifte sind bei der Pico H ebenfalls quadratisch und nicht wie üblich rund.
Hole dir den Pico in unserem Store.
Der CYW43439 unterstützt IEEE 802.11 b/g/n Wireless LAN und Bluetooth 5.2. Zum Start wird nur Wi-Fi unterstützt. Im Gegensatz zum Raspberry Pi 4 verfügt der Pico W nur über Single-Band 2,4 GHz Wi-Fi 4. Der Pi 4 verfügt über Dualband-Wi-Fi 2,4/5 GHz, aber in Bezug auf Bluetooth stellt der Pico W das Flaggschiff des Raspberry Pi in den Schatten, das nur Bluetooth 5.0 hat. Der CYW43439 unterstützt BLE und eine einzelne Antenne, die von Wi-Fi und Bluetooth gemeinsam genutzt wird.
Wichtig Bluetooth ist noch nicht verfügbar. Es wird wahrscheinlich in einem zukünftigen Firmware-Update hinzugefügt werden.
Wenn Sie sich den Pico W genauer ansehen, werden Sie die dreieckige PCB-Antenne bemerken, die der des Raspberry Pi 4 ähnelt. Der Raspberry Pi verwendet eine von ABRACON lizenzierte Onboard-Antenne.
Das bedeutet, dass keine zusätzliche Antenne benötigt wird. Die Drahtlos-Schnittstelle ist über SPI mit dem RP2040 verbunden.
Abgesehen von der Drahtlos-Schnittstelle ist die Hardware fast identisch mit der des ursprünglichen Pico.
Das externe Pinout ist fast identisch mit dem des Raspberry Pi Pico. Der einzige Unterschied liegt bei den LED- und SWD-Debug-Pins.
Die Onboard-LED wird über den WL_GPIO0 Pin des Infineon 43439 Chips gesteuert. Im Gegensatz dazu wurde die LED auf dem Pico an GPIO Pin 25 angeschlossen.
Außerdem wurden die SWD-Debug-Pins in die Mitte des Boards verlegt, um Platz für die PCB-Antenne zu schaffen. Sie sind zwischen dem RP2040 und dem CYW43439 zu finden und die Reihenfolge von links nach rechts ist immer noch SWCLK, GND, SWDIO.
Da der Pico W auf dem RP2040-Chip basiert, kann man ihn genauso programmieren wie den Pico. Das bedeutet, dass Sie ihn in C/C++ und MicroPython programmieren können und dass für den Pico geschriebener Code (der nicht die Onboard-LED verwendet) auf dem Pico W funktionieren sollte.
Raspberry Pi bietet einen Leitfaden "Connecting to the Internet with Raspberry Pi Pico W" für C/C++ und MicroPython. Um Ihnen den Start mit dem Pico W zu erleichtern, haben wir auch einige Beispielprojekte zusammengestellt.
Es gibt ein Update für das Pico-SDK, um die drahtlosen Fähigkeiten Ihres Pico W zu aktivieren. Die Einrichtung und Verwendung ist genau dieselbe wie beim Pico. Sehen Sie sich unser Video an, um mit dem Pico W und C/C++ zu beginnen.
Das aktualisierte Pico-SDK enthält auch einige Beispiele für den drahtlosen Einsatz.
Der bequemste Weg, MicroPython mit dem Pico W zu verwenden, ist die Verwendung der Thonny IDE. Raspberry Pi hat eine neue MicroPython-Portierung für den Pico W veröffentlicht.
Wichtig MicroPython ist board-spezifisch. Daher gibt es unterschiedliche (und inkompatible) MicroPython-Versionen für den Pico und den Pico W. Stellen Sie sicher, dass Sie immer die richtige Version für Ihr Board verwenden.
Allerdings funktioniert das Programmieren Pico W identisch, wenn Sie also den Pico bereits mit MicroPython verwendet haben, sollte es ein Kinderspiel sein.
Wie bereits erwähnt, hat Raspberry Pi auch den Pico H und den Pico WH herausgebracht. Das "H" im Namen bedeutet, dass er mit vorgelöteten Headern kommt. Der Pico H ist genau wie unser Pico Comfort, aber für die SWD-Debug-Pins verwendet Raspberry Pi einen horizontalen JTAG-Debug-Header. Der Pico WH wird wahrscheinlich die gleichen zwei Reihen von 1x20 Stiftleisten und eine vertikale Stiftleiste für die Debug-Pins verwenden.
Mit dem Raspberry Pi Pico W können Sie alles machen, was Sie auch mit dem Pico machen können. Aber Sie können es besser machen, indem Sie eine drahtlose Steuerung oder Ausgabe hinzufügen.
Für die meisten Projekte ist zusätzliche Hardware erforderlich, daher haben wir unsere Pico-Kits für Sie zusammengestellt.
Dieses Projekt kann als das "Hello World!" des Pico W betrachtet werden. Es zeigt, wie man sich mit Wi-Fi verbindet, wie man einen HTTP-Webserver auf dem Pico betreibt und wie man die GPIO-Pins steuert.
Dieses Projekt zeigt, wie man Messdaten von einem Sensor, der an den Pico W angeschlossen ist, über Wi-Fi ausgibt. Noch dazu in Echtzeit.
Dieses einfache Projekt macht aus deinem Pico W eine smarte Wi-Fi Türklingel. So erfährst du dass jemand klingelt, auch wenn du nicht zuhause bist.
]]>seit gestern, 24.05.2022, haben wir den Google Coral Accelerator im Set (AIY Maker Kit). Seit 30.05.2022 haben wir auch den Google Coral Accelerator einzeln im Shop.
Das AIY Maker Kit ist perfekt für Do-it-yourself-Projekte im Bereich Künstliche Intelligenz (KI). Es richtet sich an Maker und Anfänger, die ihre Projekte im Bereich des maschinellen Lernens (ML) vereinfachen wollen.
Bitte beachtet: Die im Set enthaltene microSD-Karte ist leer (unbeschrieben). Bitte lest die Anleitung, um sie mit dem richtigen Image zu flashen.
Wir versenden, je nach Zustellland das passende Netzteil:
Schon seit der Antike haben die Menschen darüber nachgedacht, Dinge zum Leben zu erwecken. Mit der Erfindung von Computern nahm die Idee von denkenden Maschinen Gestalt an.
Im Jahr 1950 erfand Alan Turing den Turing-Test, um zu beurteilen, ob eine Maschine intelligent ist oder nicht.
Der Begriff Künstliche Intelligenz wurde erstmals 1956 auf einer Konferenz am Dartmouth College erwähnt.
Eine wichtige Erfindung im Jahr 1967 war der Nearest-Neighbor-Algorithmus, der für die Klassifizierung von Objekten und die Mustererkennung wichtig ist.
Der erste autonome Wagen wurde 1979 entwickelt. Er wurde Stanford Cart genannt und konnte Wände erkennen und ihnen ausweichen.
Im Jahr 1985 wurde die AI NETtalk erfunden. Sie nutzte Deep Learning, um zu lernen, wie man spricht.
1997 begann AI richtig durchzustarten. Dem IBM-Supercomputer Deep Blue gelang es, den damaligen Schachweltmeister Garry Kasparov zu besiegen.
Die NASA entwickelte die selbstfahrenden Erkundungsrover Spirit und Opportunity, die 2004 autonom auf der Marsoberfläche fuhren.
Im Jahr 2011 besiegte eine KI namens Watson einen Menschen in der Spielshow "Jeopary!".
Googles AlphaGo schlug 2016 einen Profispieler in Go. Go gilt als weitaus komplexer als Schach, und für den Erfolg ist nicht nur Rechenleistung erforderlich.
Im Jahr 2019 besiegte eine AI sogar einen Profispieler in Starcraft II.
Heute ist AI überall. Sie hat das Problem der Proteinfaltung gelöst und sogar gelernt, Kunst zu schaffen oder Code zu schreiben.
Hier findest Du einen Überblick über die wichtigsten Begriffe im Zusammenhang mit AI.
Das Gebiet der künstlichen Intelligenz ist sehr umfangreich. Es umfasst Dinge wie Computer Vision, natürliche Sprachverarbeitung, Robotik und Automatisierung, um nur einige zu nennen.
Ein wichtiger Teil der AI ist das Machine Learning. Dabei handelt es sich um eine Sammlung von Methoden und Algorithmen, die es einem Computer ermöglichen, zu lernen. Diese Methoden können in drei Klassen unterteilt werden:
Supervised Learning, Unsupervised Learning und Reinforcement Learning.
Beim Supervised Learning verwendet die KI gekennzeichnete Daten zum Trainieren. Dies ist beim Unsupervised Learning nicht der Fall. Reinforcement Learning ist eine Möglichkeit, einen virtuellen Agenten zu trainieren. Der Agent erhält eine Belohnung, wenn er das tut, was er tun soll. Dadurch wird er zu dem gewünschten Verhalten ermutigt.
Eine spezielle Methode des Supervised Learning ist das Deep Learning. Beim Deep Learning wird ein so genanntes neuronales Netz trainiert. Das Netz besteht aus unzähligen Knoten (Neuronen). Sie sind mit einer bestimmten Gewichtung (Weight) verbunden und in Schichten (Layers) mit einem so genannten Bias gestapelt.
Um den Wert eines Neurons anhand des vorherigen Neurons zu berechnen, multipliziert man den Wert des vorherigen Neurons mit dem Weight zwischen den Neuronen und addiert den Bias.
Um das Netz zu trainieren, müssen Sie die beschrifteten Trainingsdaten in die Eingabe-Layer schreiben. Das Netzwerk propagiert die Daten durch eine variable Anzahl von versteckten Schichten entsprechend den Weights und Biases.
Schließlich erreichen die Daten die Ausgabe-Layer. Das Ausgabeneuron mit dem höchsten Wert ist die Vorhersage des Netzes. Je nachdem, ob die Vorhersage richtig ist oder nicht, passt die KI alle einzelnen Weights und Biases an. Auf diese Weise werden die Vorhersagen immer genauer, was bedeutet, dass das Netzwerk lernt.
Sieh Dir unser YouTube Video an, um ein Beispiel zu sehen und Ihre eigene KI zu trainieren.
Werfen wir einen Blick auf einige Anwendungen von AI. Man könnte argumentieren, dass künstliche Intelligenz alles tun kann, wenn man nur genug Zeit und Rechenleistung hat.
AI kann Bilder erkennen und menschliche Sprache verstehen. Wir alle kennen Dinge wie Alexa oder Siri.
Wenn du deine eigene AI bauen möchtest, insbesondere für die Heimautomatisierung, Computer Vision oder natürliche Sprachverarbeitung, dann haben wir etwas Besonderes für dich.
Unser neues AIY Maker Kit enthält alles, was du für deine Machine Learning Projekte brauchst.
Die kombinierte Leistung des Raspberry Pi 4 mit 8 GB RAM und dem Google Coral USB Accelerator bedeutet, dass Du alles bauen kannst, was Du willst. Denk an eine automatische Hundeklappe oder Deinen eigenen Hausassistenten. Du kannnst ein Schloss mit Gesichtserkennung oder ein Echtzeit-Übersetzungsgerät bauen.
]]>
|
Um selbst Modelle kompilieren zu können, musst du den TPU-Compiler installieren. Dazu benötigst du einen PC mit einem Debian-basierten Betriebssystem. Falls du bisher nur mit Windows gearbeitet hast: Solch ein Linux-System lässt sich sehr leicht parallel zu Windows einrichten. Eine gute Option für Einsteiger ist beispielsweise Ubuntu.
Die in diesem Artikel beschriebenen Parameter ermöglichen es dir, die Kompilierung exakt an deine eigenen Bedürfnisse anzupassen. Stell zuvor sicher dass dein Modell mit der Edge TPU kompatibel ist bevor du den Compiler verwenden. Für Details zur Kompatibilität lies bitte TensorFlow models on the Edge TPU.
Sämtliche Google Coral Geräte, die du benötigst, erhältst du in unserem Shop.
Der Edge TPU Compiler kann auf jedem modernen Debian-basierten Linux-System ausgeführt werden. Insbesondere müssen die folgenden Voraussetzungen erfüllt sein:
Wenn dein System diese Anforderungen nicht erfüllt, probiere einmal unseren webbasierten Compiler mit Google Colab aus.
Note: Der Edge TPU Compiler ist ab Version 2.1 nicht mehr für ARM64-Systeme (wie das Coral Dev Board) verfügbar. Wir empfehlen, Ihr Modell auf einem leistungsfähigeren Desktop zu kompilieren.
Du kannst den Compiler mithilfe der folgenden Kommandos auf deinem Linux-System installieren:
curl https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo apt-key add -
echo "deb https://packages.cloud.google.com/apt coral-edgetpu-stable main" | sudo tee /etc/apt/sources.list.d/coral-edgetpu.list
sudo apt-get update
sudo apt-get install edgetpu-compiler
edgetpu_compiler [options] model...
Der Compiler akzeptiert den Dateipfad zu einem oder mehreren TensorFlow-Lite-Modellen (das model
Argument), sowie alle Optionen. Wenn du mehrere Modelle übergibst (jedes durch ein Leerzeichen getrennt), werden sie so kompiliert, dass sie sich den RAM der Edge TPU für das Zwischenspeichern von Parameterdaten teilen können (lies hierzu über das paramter data caching).
Der Dateiname für jedes kompilierte Modell lautet input_filename_edgetpu.tflite
Das Modell wird im aktuellen Verzeichnis gespeichert, sofern du mit der Option -out_dir
nichts anderes angibst.
Tabelle 1. Verfügbare Compiler Optionen
Option | Beschreibung |
---|---|
-h, --help |
Druckt die Kommandozeilenhilfe und beendet das Programm. |
|
Gibt die Tensoren an, die du als Ausgaben des benutzerdefinierten Edge TPU-Operators wünschst. Das Argument ist eine durch Komma getrennte Liste von Tensor-Namen. Alle Operatoren, die diesen Tensoren folgen, werden nicht für die Edge TPU kompiliert, befinden sich aber weiterhin in der Datei "tflite" und werden auf der CPU ausgeführt. Die endgültige Ausgabe des Modells bleibt die gleiche. Wenn du mehrere Eingabemodelle hast (für die Ko-Kompilierung), trenne die Liste der Tensoren für jedes Modell mit einem Doppelpunkt und übergib sie in der Reihenfolge, die den Eingabemodellen entspricht. |
|
Gibt die niedrigste Edge TPU-Laufzeitversion an, mit der das Modell kompatibel sein soll. Wenn das Gerät, auf dem du dein Modell ausführen möchtest, beispielsweise über die Version 10 der Edge TPU-Laufzeit verfügt (und du die Laufzeitversion nicht aktualisieren kannst), solltest du diesen Wert auf 10 setzen, um sicherzustellen, dass dein Modell kompatibel ist. (Modelle sind immer vorwärtskompatibel mit neueren Edge TPU-Laufzeiten. Ein für Version 10 kompiliertes Modell ist mit Version 12 kompatibel). Der Standardwert hängt von der Version des Compilers ab. Sieh in der --help Ausgabe nach. Weitere Einzelheiten zu den Compiler- und Laufzeitversionen findest du weiter unten. |
|
Kompiliert das Modell in num Segmente. Jedes Segment kann auf einer separaten Edge TPU ausgeführt werden, wodurch sich der Gesamtdurchsatz des Modells erhöht. Einzelheiten zur Verwendung findest du unter Segmentierung eines Modells für Pipelining. Diese Funktion kann nicht verwendet werden, wenn mehrere Modelle übergeben oder mit kombiniert werden. |
|
Gibt das kompilierte Modell und die Protokolldateien im Verzeichnis dir aus. Standard ist das aktuelle Verzeichnis. |
|
Druckt das Protokoll mit den Operationen, die auf die Edge TPU abgebildet wurden. Die gleichen Informationen werden immer in eine Datei mit demselben Namen und Speicherort wie das kompilierte Modell geschrieben. |
|
Aktiviert die wiederholte Suche nach einem neuen Kompilierungs-Stopp-Punkt früher im Graphen, um seltene Compiler-Fehler zu vermeiden, wenn er auf eine nicht unterstützte Operation stößt. Diese Option kann nützlich sein, wenn der Compiler einen Edge-TPU-Delegaten nicht erstellen kann, obwohl frühe Schichten des Modells kompatibel sind. Wenn es aktiviert ist, versucht der Compiler, falls er aus irgendeinem Grund fehlschlägt, automatisch erneut zu kompilieren, bricht aber die Kompilierung ab, bevor er die fehlgeschlagene Operation erreicht. Schlägt die Kompilierung erneut fehl, wird sie wiederholt, wobei er wieder rückwärts geht und vor der fehlgeschlagenen Operation anhält, bis er die allererste Operation des Graphen erreicht. Die Schrittweite für jeden rekursiven Versuch ist standardmäßig 1 op. Du kannst die Schrittweite mit ändern. Dieses Flag kann nicht verwendet werden, wenn mehrere Modelle gemeinsam kompiliert werden. Hinzugefügt in v16. |
|
Gibt eine Schrittgröße an (die Anzahl der rückwärts zu durchlaufenden Ops), wenn du verwendest, das standardmäßig eine Schrittgröße von 1 verwendet. Dies kann eine beliebige Zahl 1 oder höher sein, was dir helfen kann, einen erfolgreichen Delegaten schneller zu finden. Hinzugefügt in v16. |
|
Gibt das Compiler-Timeout in Sekunden an. Der Standardwert ist 180. |
|
Gibt die Compiler-Version aus und beendet sich. |
Parameter Data Caching ist das Zwischenspeichern von Parametern.
Die Edge TPU verfügt über etwa 8 MB SRAM, in dem die Parameterdaten des Modells zwischengespeichert werden können. Ein kleiner Teil des RAM ist jedoch zunächst für die ausführbare Inferenzdatei des Modells reserviert, so dass die Parameterdaten den danach verbleibenden Platz nutzen. Die Speicherung der Parameterdaten im RAM der Edge TPU ermöglicht natürlich eine schnellere Inferenzgeschwindigkeit im Vergleich zum Abrufen der Parameterdaten aus dem externen Speicher.
Bei diesem Edge TPU-"Cache" handelt es sich nicht um einen herkömmlichen Cache, sondern um einen vom Compiler zugewiesenen Scratchpad-Speicher. Der Edge TPU Compiler fügt eine kleine ausführbare Datei in das Modell ein, die eine bestimmte Menge der Parameterdaten des Modells in den Edge TPU-RAM schreibt (falls verfügbar), bevor eine Inferenz ausgeführt wird.
Wenn du Modelle einzeln kompilierst, gibt der Compiler jedem Modell ein eindeutiges "Caching Token" (eine 64-Bit-Nummer). Wenn du dann ein Modell ausführst, vergleicht die Edge TPU-Laufzeitumgebung dieses Caching-Token mit dem Token der Daten, die derzeit zwischengespeichert sind. Wenn die Token übereinstimmen, verwendet die Laufzeitumgebung die im Cache gespeicherten Daten. Stimmen sie nicht überein, wird der Cache geleert und stattdessen die Daten des neuen Modells geschrieben. (Wenn Modelle einzeln kompiliert werden, kann jeweils nur ein Modell seine Daten zwischengespeichert haben). Dieser Prozess ist in Abbildung 1 dargestellt.
Abbildung 1. Flussdiagramm, das zeigt, wie die Edge TPU-Laufzeitumgebung den Modell-Cache im Edge TPU-RAM verwaltet
Beachte, dass das System den Cache leert und Modelldaten nur dann in den Cache schreibt, wenn dies erforderlich ist, was die Inferenz verzögert. Wenn dein Modell zum ersten Mal ausgeführt wird, ist es also immer langsamer. Spätere Inferenzen sind schneller, weil sie den bereits geschriebenen Cache nutzen. Wenn deine Anwendung jedoch ständig zwischen mehreren Modellen umschaltet, führt dieser Cache-Wechsel zu einem erheblichen Mehraufwand bei der Gesamtleistung deiner Anwendung. Hier kommt die Co-Kompilierungsfunktion ins Spiel...
Um die Leistung zu beschleunigen, wenn du mehrere Modelle kontinuierlich auf derselben Edge TPU ausführst, unterstützt der Compiler die Co-Kompilierung. Durch die Co-Kompilierung deiner Modelle können mehrere Modelle den Edge TPU-RAM gemeinsam nutzen, um ihre Parameterdaten zwischenzuspeichern, sodass der Cache nicht jedes Mal gelöscht werden muss, wenn du ein anderes Modell ausführst.
Wenn du mehrere Modelle an den Compiler übergibst, wird jedem kompilierten Modell dasselbe Caching-Token zugewiesen. Wenn du also ein gemeinsam kompiliertes Modell zum ersten Mal ausführst, kann es seine Daten in den Cache schreiben, ohne ihn vorher zu leeren. Schau dir Abbildung 1 noch einmal an: Wenn du mehrere Modelle gemeinsam kompilierst, wird der erste Entscheidungsknoten ("Stimmt das Caching-Token des Modells mit dem Cache überein?") für jedes Modell zu "Ja", und der zweite Knoten ist nur dann "Ja", wenn jedes Modell zum ersten Mal ausgeführt wird.
Beachte jedoch, dass der jedem Modell zugewiesene Arbeitsspeicher zum Zeitpunkt der Kompilierung feststeht und nach der Reihenfolge, in der die Modelle im Compilerbefehl erscheinen, priorisiert wird. Nehmen wir zum Beispiel an, du kompilierst zwei Modelle wie hier gezeigt:
edgetpu_compiler model_A.tflite model_B.tflite
In diesem Fall wird der Cache-Speicher zunächst den Daten von Modell A zugewiesen (so viel wie möglich). Wenn danach noch Platz übrig ist, werden die Daten von Modell B in den Cache aufgenommen. Wenn einige der Modelldaten nicht in den Edge-TPU-RAM passen, müssen sie stattdessen zur Laufzeit aus dem externen Speicher geholt werden.
Wenn du mehrere Modelle gemeinsam kompilierst, ist es möglich, dass einige Modelle keinen Cache erhalten, so dass sie alle Daten aus dem externen Speicher laden müssen. Ja, das ist langsamer als die Verwendung des Cache, aber wenn du die Modelle in schneller Folge ausführst, könnte dies immer noch schneller sein als das Auslagern des Cache bei jedem anderen Modell.
Hinweis: Die Parameterdaten werden dem Cache schichtweise zugewiesen - entweder passen alle Parameterdaten einer bestimmten Schicht in den Cache und werden dorthin geschrieben, oder die Daten dieser Schicht sind zu groß, um hineinzupassen, und alle Daten für diese Schicht müssen aus dem externen Speicher geholt werden.
Es ist wichtig, daran zu denken, dass der jedem Modell zugewiesene Cache kein herkömmlicher Cache ist, sondern ein vom Compiler zugewiesener Scratchpad-Speicher.
Der Edge TPU Compiler kennt die Größe des Edge TPU-RAM und weiß, wie viel Speicherplatz die ausführbaren und die Parameterdaten jedes Modells benötigen. Daher weist der Compiler den Parameterdaten eines jeden Modells zur Kompilierungszeit eine feste Menge an Cache-Speicherplatz zu. Der Befehl edgetpu_compiler
gibt diese Informationen für jedes angegebene Modell aus. Hier ist zum Beispiel ein Ausschnitt aus der Compiler-Ausgabe für ein Modell:
On-chip memory available for caching model parameters: 6.91MiB
On-chip memory used for caching model parameters: 4.21MiB
Off-chip memory used for streaming uncached model parameters: 0.00B
In diesem Fall passen die Parameterdaten des Modells alle in den Edge TPU-RAM: Die für "Verwendeter Off-Chip-Speicher" angezeigte Menge ist Null.
Wenn du jedoch zwei Modelle gemeinsam kompilierst, verwendet das erste Modell 4,21 MiB der verfügbaren 6,91 MiB RAM, so dass nur 2,7 MiB für das zweite Modell übrig bleiben. Wenn das nicht genug Platz für alle Parameterdaten ist, dann muss der Rest aus dem externen Speicher geholt werden. In diesem Fall gibt der Compiler Informationen für das zweite Modell wie folgt aus:
On-chip memory available for caching model parameters: 2.7MiB
On-chip memory used for caching model parameters: 2.49MiB
Off-chip memory used for streaming uncached model parameters: 4.25MiB
Beachte, dass der "verwendete Off-Chip-Speicher" für dieses zweite Modell 4,25 MiB beträgt. Dieses Szenario ist in Abbildung 2 grob dargestellt.
Hinweis: Der "verfügbare Speicher auf dem Chip", der für das erste mitkompilierte Modell angezeigt wird, ist der Speicher, der nach Abzug des für die ausführbaren Dateien des Modells benötigten Speicherplatzes übrig bleibt. Wenn du mehrere Modelle gemeinsam kompilierst, wird der für die ausführbaren Dateien vorgesehene Speicherplatz von allen Modellen gemeinsam genutzt (im Gegensatz zum Speicherplatz für die Parameterdaten). Das heißt, die für die ausführbaren Dateien angegebene Menge ist nur die Menge an Speicherplatz, die von der größten ausführbaren Datei benötigt wird (nicht die Summe aller ausführbaren Dateien).
Abbildung 2. Zwei gemeinsam kompilierte Modelle, die nicht beide alle Parameterdaten im Edge TPU RAM unterbringen können
Selbst wenn deine Anwendung dann nur dieses zweite Modell ("Modell B") ausführt, speichert sie immer nur einen Teil ihrer Daten im Edge TPU-RAM, da dies die Menge ist, die beim Co-Kompilieren mit einem anderen Modell ("Modell A") als verfügbar ermittelt wurde. Der Hauptvorteil dieses statischen Designs besteht darin, dass die Leistung deterministisch ist, wenn deine Modelle gemeinsam kompiliert werden, und dass keine Zeit für das häufige Neuschreiben des RAM aufgewendet wird. Und wenn deine Modelle alle Parameterdaten in den Edge TPU-RAM einpassen, dann erreichst du maximale Leistungsgewinne, indem diese nie aus dem externen Speicher lesen und den Edge TPU-RAM nie neu schreiben.
Wenn du überlegst, ob du die Co-Kompilierung verwenden willst, solltest du den Compiler mit all deinen Modellen laufen lassen, um zu sehen, ob sie alle Parameterdaten in das Edge TPU-RAM einpassen können (lies dazu die Compilerausgabe). Wenn nicht alle Modelle passen, überlege, wie häufig jedes Modell verwendet wird. Übergib gegebenenfalls das am häufigsten verwendete Modell zuerst an den Compiler, damit er alle seine Parameterdaten zwischenspeichern kann. Wenn nicht alle Modelle passen und nur selten gewechselt werden, ist die Co-Kompilierung vielleicht nicht sinnvoll, da die Zeit, die für das Lesen aus dem externen Speicher aufgewendet wird, teurer ist als das regelmäßige Neuschreiben des Edge-TPU-RAM. Um zu entscheiden, was am besten funktioniert, musst du möglicherweise verschiedene Kompilierungsoptionen testen.
Tipp: Wenn die Daten für mehrere Modelle nicht alle in den Cache passen, versuche, die Modelle in einer anderen Reihenfolge an edgetpu_compiler
zu übergeben. Wie bereits erwähnt, werden die Daten schichtweise zugewiesen. Du könntest also eine Reihenfolge finden, bei der mehr Gesamtdaten in den Cache passen, weil sie mehr von den kleineren Schichten zulässt.
Achtung: Du solltest vorsichtig sein, wenn du die Co-Kompilierung in Kombination mit mehreren Edge TPUs verwendest: Wenn du deine Modelle cokompilieren lässt, diese aber tatsächlich auf separaten Edge TPUs laufen, könnten deine Modelle unnötigerweise Parameterdaten im externen Speicher speichern. Du solltest also sicherstellen, dass alle gemeinsam kompilierten Modelle tatsächlich auf derselben Edge TPU ausgeführt werden.
Wenn dein Modell nicht in den Edge-TPU-Cache passt oder der Gesamtdurchsatz für dein Modell ein Engpass in deinem Programm ist, kannst du die Leistung wahrscheinlich verbessern, indem du dein Modell in separate Teilgraphen segmentierst, die in einer Pipeline auf separaten Edge-TPUs ausgeführt werden.
Um dein Modell zu segmentieren, gib einfach das Argument num_segments
an, wenn du das Modell kompilierst. Wenn du zum Beispiel eine Pipeline mit vier Edge TPUs verwenden möchtest:
edgetpu_compiler --num_segments=4 model.tflite
Der Compiler gibt jedes Segment als separate .tflite
Datei mit einem enumerierten Dateinamen aus. Du kannst dann die Inferenz mit der PipelinedModelRunner API
ausführen, wie in Pipeline ein Modell mit mehreren Edge TPUs beschrieben.
Du solltest jedoch sorgfältig abwägen, mit welcher Anzahl von Segmenten du deine Leistungsziele erreichen kannst. Dies hängt von der Größe deines Modells ab und davon, ob du versuchst, ein großes Modell vollständig in den Edge-TPU-Cache einzupassen (um die Latenz zu verringern) oder ob du versuchst, den Durchsatz deines Modells zu erhöhen:
num_segments = [Model size] MB / 6 MB
Hinweis: Wenn du die vollständige Kontrolle darüber haben willst, wo jedes Segment geschnitten wird, kannst du stattdessen dein Modell manuell in separate .tflite
Dateien schneiden, indem du das TensorFlow `toco_convert` Werkzeug benutzt. Stelle sicher, dass du jedes .tflite
Segment mit einer Nummer benennst, die der Reihenfolge entspricht, in der es in die Pipeline gehört. Beachte auch, dass toco_convert
nur mit Modellen kompatibel ist, die uint8 quantisierte Parameter verwenden, also nicht mit nach dem Training quantisierten Modellen (die int8 verwenden).
Die Segmentierungsstrategie des Edge TPU Compilers (über die Option num_segments
) verwendet eine Heuristik, die versucht, die Parameterdaten gleichmäßig zwischen den Segmenten zu verteilen - die Latenz in den einzelnen Segmenten spielt dabei keine Rolle. Daher kann es zu Engpässen in deiner Pipeline kommen, insbesondere wenn du versuchst, ein SSD-Modell oder einen anderen Modelltyp zu segmentieren, der große CPU-gebundene Ops oder Verzweigungen im Graphen aufweist. In diesen Situationen, in denen es wichtig ist, dass jedes Segment deiner Pipeline mit einigermaßen ähnlichen Latenzen arbeitet, solltest du dein Modell mit dem Werkzeug partition_with_profiling
kompilieren.
Das partition_with_profiling
Tool ist ein Wrapper um den Edge TPU Compiler, der jedes Segment auf einer Edge TPU profiliert und das Modell unter Verwendung verschiedener Segmentlängen iterativ neu kompiliert, bis es ein Partitionsverhältnis findet, bei dem der Unterschied zwischen dem schnellsten und dem langsamsten Segment unter einem bestimmten Schwellenwert liegt.
Um dieses Tool zu verwenden, musst du zunächst das partition_with_profiling
Tool kompilieren, was du mit Docker tun kannst, wie in der Readme-Datei des Partitioners auf GitHub beschrieben. Führe dann den Profiling Partitioner aus, indem du ihm den Pfad zum Edge TPU Compiler, dein Modell und die Anzahl der zu erstellenden Segmente übergibst:
Achtung: Dein System muss Zugriff auf die gleiche Anzahl von Edge-TPUs haben, wie im Argument num_segments
angegeben.
./partition_with_profiling \
--edgetpu_compiler_binary <PATH_TO_COMPILER> \
--model_path <PATH_TO_MODEL> \
--output_dir <OUT_DIR> \
--num_segments <NUM_SEGMENTS>
Dies dauert länger als eine typische Modellkompilierung, da das Modell möglicherweise mehrmals neu partitioniert werden muss und jedes Mal ein Profil erstellt werden muss, bevor eine optimale Partition gefunden wird.
Hinweis: Um ein genaues Profil deiner Pipeline-Segmente zu erstellen, sollten die vom profilierungsbasierten Partitionierer verwendeten Edge TPUs dieselbe Schnittstelle (PCIe oder USB) verwenden wie die in deinem Produktionssystem, und auch die Host-CPU sollte übereinstimmen. Wenn das nicht möglich ist, ist das in Ordnung, aber beachte, dass es einen Unterschied zwischen dem vom profilierungsbasierten Partitionierer gemessenen Durchsatz und dem Durchsatz auf deinem Produktionssystem geben kann.
Tabelle 2. Optionen für das Werkzeug partition_with_profiling
Option | Beschreibung |
---|---|
|
Pfad zur Edge-TPU-Compiler-Binärdatei. Notwendig. |
|
Pfad zum aufzuteilenden Modell. Notwendig. |
|
Anzahl der Ausgabesegmentmodelle. Notwendig. |
|
Ausgabeverzeichnis für alle kompilierten Segmente. Standard ist . |
|
Typ des Edge TPU-Geräts, das bei der Profilerstellung für jedes Segment verwendet werden soll. Der Typ kann "pcionly", "usbonly" oder "any" sein. Standard ist "any". |
|
Die angestrebte Differenz (in ns) zwischen dem langsamsten Segment (obere Grenze) und dem schnellsten Segment (untere Grenze). Wenn der Partitionierer ein Partitionsverhältnis findet, bei dem die Differenz zwischen dem langsamsten und dem schnellsten Segment geringer ist als dieser Wert, wird er angehalten. Die Vorgabe ist 1000000 (1 ms). |
|
Die Anzahl der Operatoren, die während jeder Iteration der Partitionssuche zu einem Segment hinzugefügt oder daraus entfernt werden. Eine Erhöhung dieser Zahl kann die Suche nach einer geeigneten Partition beschleunigen, kann aber auch zu einem Überschreiten des Minimums führen. Voreinstellung ist 1. |
|
Schrittweite für die Delegatensuche beim Kompilieren des Modells. Entspricht der Option im Compiler. Standardwert ist 1. (Beim Werkzeug ist immer aktiviert.) |
|
Anfängliche Untergrenze der Segmentlatenz. (Latenz des schnellsten Segments.) Standardmäßig wird dies vom Tool ermittelt, indem das Modell mit dem heuristischen Ansatz des Compilers segmentiert und dann die Segment-Latenzen aufgezeichnet werden. |
|
Anfängliche Obergrenze für die Segment-Latenz (Latenz des langsamsten Segments). Standardmäßig wird dies vom Tool ermittelt, indem das Modell mit dem heuristischen Ansatz des Compilers segmentiert und dann die Segment-Latenzen aufgezeichnet werden. |
Weitere Einzelheiten zu diesen Tools findest du im GitHub Repository.
Um eine Inferenz mit deinen segmentierten Modell durchzuführen, lies Pipeline a model with multiple Edge TPUs.
Ein für die Edge TPU kompiliertes Modell muss mit einer entsprechenden Version der Edge TPU-Laufzeit ausgeführt werden. Wenn du versuchst, ein kürzlich kompiliertes Modell mit einer älteren Laufzeitversion auszuführen, wird eine Fehlermeldung wie die folgende angezeigt:
Um dieses Problem zu lösen, aktualisiere die Edge TPU-Laufzeitumgebung auf deinem Hostsystem.
Wenn du nicht in der Lage bist, die Geräte-Laufzeit zu aktualisieren, kannst du stattdessen dein Modell neu kompilieren, um es mit der älteren Laufzeitversion kompatibel zu machen, indem du beim Ausführen von
das Flag
angibst. Zum Beispiel:
Die folgende Tabelle zeigt die Edge TPU Compiler-Versionen und die entsprechende Edge TPU-Laufzeitversion, die standardmäßig erforderlich ist. Du kannst jederzeit einen neueren Compiler verwenden, um Modelle zu erstellen, die mit älteren Laufzeiten kompatibel sind (siehe oben).
Tabelle 3. Kompatibilität von Compiler und Edge TPU-Laufzeitumgebung
Compiler Version | Notwendige Laufzeitumgebung |
---|---|
16.0 | 14 |
15.0 | 13 |
14.1 | 13 |
2.1.302470888 | 13 |
2.0.291256449 | 13 |
2.0.267685300 | 12 |
1.0 | 10 |
Hinweis: Deine Compiler- und Laufzeitversion bestimmt, welche Operationen du verwenden kannst.
Du kannst deine Compiler-Version wie folgt überprüfen:
Du kannst die Laufzeitversion auf deinem Gerät wie folgt überprüfen:
Wenn das Protokoll für dein kompiliertes Modell viele Operationen anzeigt, die der CPU zugeordnet sind, überprüfe die Modellanforderungen sorgfältig und versuche, Änderungen vorzunehmen, um die Anzahl der Operationen zu erhöhen, die der Edge TPU zugeordnet sind.
Wenn der Compiler dein Modell nicht kompilieren kann und eine allgemeine Fehlermeldung ausgibt, kontaktiere bitte den Support von Google, um das Problem zu melden. Wenn du das tust, teile uns bitte das TensorFlow Lite Modell mit, das du zu kompilieren versuchst, damit Google das Problem debuggen kann (Google benötigt kein vollständig trainiertes Modell - eines mit zufällig initialisierten Parametern sollte ausreichen).