HomeInnovationen → Innovation-Pipeline
 
 
Innovation-Pipeline
   
 

Das ständige Aufgreifen von Innovationsthemen durch Ontonics führt immer wieder zu der Entwicklung neuer Dienstleistungen, Geschäfts- einheiten und Unternehmen. Die hier in der Innovation-Pipeline und in der Innovation-Pipeline #2 aufgelisteten Projekte sind nur ein kleiner Auszug aus unserer zur Zeit über 1000 innovative Konzepte umfassenden Innovationsportfolio.

 

Ontonik©

Business-Engineering & Management

Kerninformatik

Informatik - Neue Paradigmen

Multimedia

Weiche Bionik (Softbionics™)

Biotechnologie (Biotechnology)

Nanotechnologie (Nanotechnology)

Robotik (Robotics)

Parionik™ (Parionics™)

Luftfahrttechnologie (Aviation Technology)

Raumfahrttechnologie (Space Technology)

Methoden, Techniken, Materialien und Technologien (Methodes, Techniques, Materials, and Technology)

(Bei den Projektnamen handelt es sich nicht immer um die endgülti- gen Namen der geplanten Produkte, Dienste oder Geschäftseinhei- ten.
Diese Web-Seite ist nur als Index gedacht. Die folgenden Projektbe- schreibungen dienen lediglich der Vermeidung von toten Hyperver- bindungen (Hyperlinks) aufgrund einer neuen Strukturierung der Innovation-Pipeline. Bitte gehen Sie direkt auf die entsprechende Web-Seite indem Sie den oben aufgeführten Index nutzen.)

   
     
     

 

SWA 1997
Die Schwerpunkte von SWA sind Software-Architekturen sowie komponentenbasierte Software-Entwicklung und -Entwicklungs- methoden.
The focus of SWA are software architectures as well as component based software development, and -development methods.

 

   
C-AT 1997
C-AT greift neue Paradigmen der Software-Technologie auf, wie zum Beispiel die aspektorientierte oder visuelle Programmierung.
C-AT takes up new paradigms of the software technology, like for example aspect oriented, or visual programming.

 

   
Log-structured Hash-based File System (LogHashFS or LHFS) 2005 and 2009
Das LogHashFS ist ein protokollstrukturiertes streuwertverfahrenba- siertes Dateisystem. Bedingt durch diese grundlegende konzeptionel- le Zusammenstellung können sich die entsprechenden Datenstruktu- ren des protokollstrukturierten Datenspeicheransatzes auf der einen Seite und des streuwertverfahrenbasierten Abbildungsansatzes auf der anderen Seite auf dem Speichermedium und im Arbeitsspeicher vorteilhaft unterscheiden und trotzdem harmonisch zusammengefügt werden. Dazu kann das LogHashFS in unterschiedlichen Varianten implementiert werden, wie zum Beispiel durch die Verwendung eines konsistenten Streuwertverfahrens mit Finger-Tabellen und Hash-Ta- bellen, die insbesondere:
• dazwischenliegende Schlüssel-Punktwert-Paare speichern, wobei die Punktwerte die Hash-Werte der Daten sind, die als Datenadres- sen genutzt werden,
• Tabellengrößen besitzen, die durch Stichprobenverfahren der Ein- gabe bestimmt werden können, sodass Einfügungen und Anfragen eines Schlüssel-Datenadresse-Paars mit einer garantierten Hochleis- tung erbracht wird, die nur konstante Zeit benötigt (O(1)), sowie
• Schlüssel-Datenadresse-Paare in jedem Hash-Tabellenschlitz als B+_Baum organisieren um zu verhindern, dass die Ungenauigkeit des Stichprobennehmens die Leistung herabsetzt.
Die sich ergebende Gesamtleistung für das Hinzufügen, Löschen, Indizieren oder Wiederfinden einer Datei wird aktuell mit einer Lauf- zeit von O(log n) × O(1) geschätzt (mit n=Anzahl der Fingertabel- len), was in der Praxis extrem schnell ist.
Zudem kann das LogHashFS als Optionen fliegende/spontane/inkre- mentale Partitionierung, Formatierung, Überprüfung und Wiederher- stellung bieten, sodass das Dateisystem nicht unter dem Skalie- rungsproblem leidet, als auch ein konfigurierbares Managementsys- tem für Fixpunkte, Augenblicksaufnahmen oder/und Versionierung. Anwendungen sind alle Arten von Datenspeichersystemen, wie Da- teisysteme und darauf aufsetzende Datenbanksysteme und assozi- ative Datenfeldspeichersysteme, selbstverständlich sogar mit den Eigenschaften Atomarität, Konsistenz, Isoliertheit und Dauerhaftig- keit (AKID), unser Ontologisches DateiSystem (OntoDS), als auch paralleles und verteiltes Rechnen, inklusive Verteilernetz-/ Grid-, Rechner-zu-Rechner-/Peer-to-Peer- und Wolkenrechnen/ Cloud-Computing.
The LogHashFS is a log-structured hash function-based file system. Due to this basic conceptual combination, the related data struct- ures of the log-structured data storage approach and the hash function-based approach can differ advantageously from each other on the storage media and the main memory and still be joined in a harmonic way. In order to do this, the LogHashFS can be implement- ed in different variants, like for example by using consistent hashing with finger tables and hash tables, which notably:
• store intermediate key-score pairs, with the score being the hash of the data used as the data address,
• have table sizes, which can be determined by sampling their input, so that insertions and queries of a key-data address pair are done with a guaranteed high performance of needing only constant time (O(1)), and also
• organize the key-score pairs within each hash table slot as a B+ tree for preventing the inacurracy of sampling from degrading the performance.
The resulting overall performance for adding, deleting, indexing, or retrieving a file is actually estimated with a runtime of O(log n) × O(1) (with n=count of the finger tables), which is in practice extremely fast.
In addition, the LogHashFS offers as options on-the-fly/incremental partioning, formating, checking, and repairing, so that the file syst- em does not suffer from the problem of scalability, as well as config- urable checkpoint, snapshot, or/and versioning management system. Applications are all kinds of data storage systems, like file systems, and database systems and associative arrays based on them, for sure even with the properties of Atomicity, Consistency, Isolation, and Durability (ACID), triple stores and graph stores, our Ontologic File System (OntoFS), as well as parallel and distributed computing, inclusive grid, peer-to-peer, and cloud computing.

 

   
SASOS4Fun 2005 and 2009
Das SASOS4Fun ist eine Architektur eines Einaddressraumbetriebs- systems==Single Address Space Operating System (SASOS) mit vielen interessanten Eigenschaften, wie SoftwareIsolierte Prozesse (SIPe), die Unterstützung der ObjektOrientierten (OO I), der Onto- logieOrientierten (OO II) und durch die Auswahl einer kernlosen Architektur und einer Nullontologie sogar der OntologikOrientierten (OO III) Paradigmen, eine typsichere Sprache und ein protokoll- strukturiertes Dateisystem, das auf einem konsistenten Streuwert- verfahren mit Finger-Tabellen und Hash-Tabellen basiert, die:
• dazwischenliegende Schlüssel-Punktwert-Paare speichern, wobei die Punktwerte die Hash-Werte der Daten sind, die als Datenadres- sen genutzt werden,
• Tabellengrößen besitzen, die durch Stichprobenverfahren der Ein- gabe bestimmt werden können, sodass Einfügungen und Anfragen eines Schlüssel-Datenadresse-Paars mit einer garantierten Hochleis- tung erbracht wird, die nur konstante Zeit benötigt (O(1)), sowie
• Schlüssel-Datenadresse-Paare in jedem Hash-Tabellenschlitz als B+_Baum organisieren um zu verhindern, dass die Ungenauigkeit des Stichprobennehmens die Leistung herabsetzt,
und das zudem optionale fliegende/spontane/inkrementale Partitio- nierung, Formatierung, Überprüfung und Wiederherstellung bietet, sodass das Dateisystem nicht unter dem Skalierungsproblem leidet, als auch ein konfigurierbares Managementsystem für Fixpunkte, Augenblicksaufnahmen oder/und Versionierung.
The SASOS4Fun is an architecture of a Single Address Space Oper- ating System (SASOS) with many interesting features, like Software Isolated Processes (SIPs), the support of the Object-Oriented (OO I), Ontology-Oriented (OO II), and by taking a kernel-less architect- ure and a null ontology even the Ontologic-Oriented (OO III) para- digms, a type-safe language, and a log-structured file system based on consistent hashing with finger tables and hash tables, that:
• store intermediate key-score pairs, with the score being the hash of the data used as the data address,
• have table sizes, which can be determined by sampling their input, so that insertions and queries of a key-data address pair are done with a guaranteed high performance of needing only constant time (O(1)), and also
• organize the key-score pairs within each hash table slot as a B+ tree for preventing the inacurracy of sampling from degrading the performance,
and that in addition offers optional on-the-fly/incremental partioning, formating, checking, and repairing, so that the file system does not suffer from the problem of scalability, as well as configurable checkpoint, snapshot, or/and versioning management system.

 

   
KnowledgeXL™ 1999
KnowledgeXL ist auf XML-basierte Lösungen für das Wissensman- agement spezialisiert. Auf der Grundlage Ontologischer Systeme werden höchst performante Systemlösungen entwickelt.
KnowledgeXL is specialized on XML-based solutions for the man- agement of knowledge. On the basis of Ontologic Systems®™ high performant system solutions are developed.

 

   
Reflection DB™ 4.March.2013
Die Reflektionsdatenbank==Reflection Database (Reflection DB) ist ein Konzept, das die zwei grundlegenden Prinzipien von DatenBank- ManagementSystemen (DBMSen) vereinigt, die die Reihenorientierung und die Spaltenorientierung sind. Hierdurch können die Vorteile von beiden Ansätzen beibehalten werden, da reihenorientierte Datenban- ken bestens für Transaktionsoperationen auf kleinen Datenmengen beziehungsweise für die Echtzeittransaktionsverarbeitung==OnLine Transaction Processing (OLTP) geeignet sind, während spaltenorien- tierte Datenbanken bestens für aggregierte/angesammelt Abfragen auf große Datenmengen beziehungsweise für die Echtzeitanalyse- verarbeitung==OnLine Analytical Processing (OLAP) geeignet sind. Dies wird durch einen Reflektions- und Synchronisationsalgorithmus realisiert, der die grundlegende Datenstruktur in beide Richtungen benutzen kann indem entweder zwei einzelne Datenstrukturen für die Reihenorientierung und die Spaltenorientierung in koordinierter Weise genutzt werden oder einfach die Basisdatenstruktur in gespiegelter Ansicht benutzt wird, sodass Reihen zu Spalten werden und umge- kehrt. Die potentiellen Nachteile von mehr Zeit- und Raumanforde- rungen aufgrund von Redundanzen werden in der Praxis durch die höhere Geschwindigkeit und effizientere Benutzbarkeit kompensiert, falls Anwendungen beide Vorteile benötigen um nützlich zu sein. Letzteres ist der Fall zum Beispiel in den Bereichen des semantischen und ontologieorientierten Rechnens. Das Konzept kann auch für Da- teidatenbanksysteme genutzt werden. Dafür verwenden wir unter anderem Konzepte und Technologien von Grafischen Prozessoreinhei- ten==Graphic Processing Units (GPUs).
The Reflection DataBase (Reflection DB) is a concept that unites two basic principles of DataBase Management Systems (DBMSs), which are the row-orientation and the column-orientation. In this way, the advantages of both approaches can be obtained, because row-oriented databases are best suited for transactional operations on smaller amounts of data respectively OnLine Transaction Process- ing (OLTP), while column-oriented databases are best suited for ag- gregations of queries on large amounts of data respectively OnLine Analytical Processing (OLAP). This is realized by a reflection and synchronization algorithm that can use the basic datastructure in both directions by using either two single datastructures for the row-orientation and the column-orientation in a coordinated way, or a mirrored view on the basic datastructure, so that rows become columns and vice versa. The potential disadvantages of more time and space requirements due to redundancies are compensated in practice by the higher speed and more efficient useabiltiy, if applic- ations need both advantages for being useful. The latter is the case in for example the fields of semantic and ontology-oriented comput- ing. The concept can also be used for file database systems. For this, we reuse concepts and technologies of Graphic Processing Units (GPUs).

 

   
NLP2OWL™ 2007
Das Format Natürliche-Sprachverarbeitung-zu-Web-Ontologiespra- che==Natural Language Processing to Web Ontology Language (NLP2OWL) Format ist das NLP-Austauschformat==NLP Interchange Format (NIF). NIF bietet Interfunktionsfähigkeit zwischen NLP-Werk- zeugen, Sprachressourcen und Anmerkungen. NLP-Werkzeuge kön- nen in die Stapel ontologischer Systeme integriert werden indem sie als Ausgabe OWL gemäß unserem einmaligen, generellen Ansatz produzieren, der menschliche als auch maschinelle Sprachen auf vali- dierte und verifizierte Weise und in einer polygonalen beziehungswei- se ontogonalen Form direkt auf die OWL abbildet, und somit die Aus- gabe in zum Beispiel den OntoLix- und OntoLinux-Systemstapeln di- rekt, formal fehlerfrei und problemlos verwendet werden kann.
The format Natural Language Processing to Web Ontology Language (NLP2OWL) is the NLP Interchange Format (NIF). NIF offers inter- operability between NLP tools, language resources, and annotations. NLP tools can be integrated into the stacks of Ontologic Systems by producing OWL according to our unique, general approach, that directly maps human and machine languages onto the OWL in a val- idated and verified way and in a polygonal respectively ontogonal form, and hence the output can be directly, formally flawlessly, and unproblematically used in for example the OntoLix and OntoLinux system stacks.

 

   
NIP2OWL™ 2007
Das Format Natürliche-Bildverarbeitung-zu-Web-Ontologiesprache== Natural Image Processing to Web Ontology Language (NIP2OWL) Format ist das NIP-Austauschformat==NIP Interchange Format (NI²F). NI²F bietet Interfunktionsfähigkeit zwischen NIP-Werkzeugen, Bildressourcen und Anmerkungen. NIP-Werkzeuge können in die Sta- pel ontologischer Systeme integriert werden indem sie als Ausgabe OWL gemäß unserem einmaligen, generellen Ansatz produzieren, der menschliche als auch maschinelle Bilder auf validierte und verifizierte Weise und in einer polygonalen beziehungsweise ontogonalen Form direkt auf die OWL abbildet, und somit die Ausgabe in zum Beispiel den OntoLix- und OntoLinux-Systemstapeln direkt, formal fehlerfrei und problemlos verwendet werden kann.
The format Natural Image Processing to Web Ontology Language (NIP2OWL) is the NIP Interchange Format (NI²F). NI²F offers inter- operability between NIP tools, image resources, and annotations. NIP tools can be integrated into the stacks of Ontologic Systems by producing OWL according to our unique, general approach, that di- rectly maps human and machine images onto the OWL in a validated and verified way and in a polygonal respectively ontogonal form, and hence the output can be directly, formally flawlessly, and unproblem- atically used in the OntoLix and OntoLinux system stacks for examp- le.

 

   
Watercode™ 21. and 22.July.2012
Unsere Wasserkode-==Watercode-Technik integriert die allgemeinen Techniken des Markierens mit digitalen Wasserzeichen und dem Ko- dieren von beliebigen Informationssignalen, sodass keine unerwün- schte Veränderung des Ausgangssignals mehr notwendig ist. Die Lösung kann als verlustlose und verlustbehaftete Variante mit jeder Art von Kodierung realisiert werden, wie wir es bereits mit unseren Strichkodewasserzeichen (Strichzeichen) und Schnellantwortwasser- zeichen umsetzen. Für die verlustfreie Variante muss der zugehörige Algorithmus das markierte und kodierte Gesamtsignal, das durch Sen- soren, Kameras und Mikrofone mit ausreichend hoher Präzision gelie- fert wird, entsprechend interpretieren, sodass das originale Informa- tionssignal und der Wasserkode wieder voneinander getrennt werden können.
Our Watercode technique integrates the general techniques of the digital watermarking and the coding of abitrary information signals. The solution can be realized as lossless and lossy variant with every kind of coding, as we already implement with our Barcode Watermark (Barmark) and Quick Response WaterMark (QR Mark). For the lossless variant, the related algorithm must interpret the marked and coded overall signal accordingly, which is delivered by sensors, cameras, and microphones with a sufficiently high precision, so that the orig- inal information signal and the watercode can be seperated from each other again.

 

   
Quick Response WaterMark™ (QR Mark™) 21.July.2012
Die Schnellantwortwasserzeichen-==Quick-Response-WaterMark- (QR-Mark-)Technik integriert die Techniken der digitalen Wasserzei- chenmarkierung von beliebigen Informationssignalen mit der Schnel- len-Antwort-Kodierung==Quick-Response-Code (QR-Code), sodass kein hässliches zweifarbiges (meistens schwarz-weißes) Bild des QR-Codes mehr notwendig ist. Die Lösung kann mit jeder Art von Bild und Geräusch sowie als verlustlose und verlustbehaftete Variante realisiert werden. Für die verlustfreie Variante muss das markierte In- formationssignal durch eine Kamera oder ein Mikrofon mit einer aus- reichend hohen Auflösungen zur Verfügung gestellt werden, sodass der zugehörige Algorithmus das originale Signal und den QR-Code wieder voneinander trennen kann.
The Quick Response WaterMark (QR Mark) technique integrates the techniques of the digital watermarking of documents and images with the Quick Response Code (QR Code), so that no ugly two-tone (mostly black-white) image of the QR Code is needed anymore. The solution can be realized with every kind of image and sound, and also as lossless and lossy variant. For the lossless variant, the mark- ed information signal must be made available by a camera with a sufficiently high resolution, so that the related algorithm can sepa- rate the original information signal and the QR Code from each other again.

 

   
Barcode Watermark™ (Barmark™) 21.July.2012
Die Technik der Strichcodewassermarke==Barcode Watermark (Bar- mark) integriert die Konzepte der digitalen Wasserzeichenmarkierung von beliebigen Informationssignalen und der Strichkodierung==Bar-Coding, sodass kein hässliches zweifarbiges (meistens schwarz-weißes) Bild des Barcodes mehr notwendig ist. Die Lösung kann mit jeder Art von Bild und Geräusch sowie als verlustlose und verlustbe- haftete Variante realisiert werden, so wie wir es bereits mit unserem Schnellantwortwasserzeichen umsetzen. Für die verlustfreie Variante muss der zugehörige Algorithmus das markierte Signal, das durch eine Kamera oder ein Mikrofon mit ausreichend hoher Auflösungen geliefert wird, entsprechend interpretieren, sodass das originale Informationssignal und der Strichcode wieder von einander getrennt werden können.
The technique of the Barcode WaterMark (Barmark) integrates the concepts of the digital watermarking and the barcoding, so that the ugly two-tone (mostly black-white) image of the QR Code is not needed anymore. For this, the related software must interpret the overall image accordingly, which is supported by a camera with a sufficiently high resolution, so that the image and the QR Code can be separated again. The solution can be realized with every kind of coding, as we already do with our Quick Response WaterMark (QR Mark).

 

   
Visualytics™ (Visual Analytics) 2000
Visualytics nutzt Bild verarbeitende und gebende Software und Hard- ware zur Datenanalyse und Entscheidungsfindung. Als der Pionier konnte unser OntoLab™ die Führerschaft übernehmen. Die visuelle Analyse hat sich mittlerweile zu einer neuen wissenschaftlichen Rich- tung in der Informatik entwickelt.
Visualytics uses image processing and giving software and hardware for the study of data, and the decision making. As the pioneer our OntoLab™ was able to assume the leadership. In the meanwhile, the Visual Analytics has developed into a new scientifical subject in the Informatics.

 

   
WebGLKit™ 200x
Die WebGLKit-Wiedergabefunktionseinheit basiert auf einer Layout- funktionseinheit für Auszeichnungssprachen, wie das WebKit für die Hyper-Text-Markup-Language (HTML) und die eXtensible-Markup-Language (XML), für zugehörige Formatierungs- und Transforma- tionssprachen, wie die Cascading-Style-Sheets (CSS) und die eX- tensible-Style-sheet-Language (XSL), sowie für Bilder, aber entwirft und rendert diese direkt mit der OpenGL-Wiedergabefunktionseinheit für 2D- und 3D-Computergrafiken, sodass alle Prozesse immer in einer 3D-Umgebung laufen, sogar wenn das Ergebnis in 2D präsentiert wird. Mit anderen Worten ausgedrückt ist eine Anwendung wie ein Web-Browser eine OpenGL-Anwendung und eine/ein BenutzerIn zum Beispiel um eine Glyphe oder einen anderen Web-Seiteninhalt, eine Web-Seite oder einem ganzen Web- Browser herumgehen kann. Zudem können auch normaler OpenGL- and WebGL-Code mit der HyperGraphics-Markup-Language (HGML) der HyperMedia-Markup-Language (HMML) und der Hypermedia/ Time-based-Structuring-Language (HyTime) vermischt werden als auch mit semantischen Sprachen, wie dem Resource-Description- Framework (RDF) und der Web-Ontology-Language (OWL) sowie unserer Ontologischen Design-/ModellierungsSprache (ODS/OMS), Natürliche-Sprachverarbeitung-zu-Web-Ontologiesprache (NLP2OWL) und auch Natürliche-Bildverarbeitung-zu-Web-Ontologiesprache (NIP2OWL) verknüpft werden.
The WebGLKit rendering enigne is based on a layout engine for mark- up languages, like the WebKit for the HyperText Markup Language (HTML) and the eXtensible Markup Language (XML), for related formatting and transformation languages, like the Cascading Style Sheets (CSS) and eXtensible Stylesheet Language (XSL), and also for images, but layouts and renders these directly with the OpenGL rendering engine for 2D and 3D computer graphics, so that all processes run always in a 3D environment, even if the result is presented on a 2D imaging display. Said in other words, a related application like a web browser is an OpenGL application and a user could for example even walk around a glyph or another webpage content, a webpage, or a whole web browser. In addition, standard OpenGL and WebGL code can be mixed with the HyperGraphics Markup Language (HGML), the HyperMedia Markup Language (HMML), and the Hypermedia/Time-based Structuring Language (HyTime), as well as connected with semantic languages, like the Resource Description Format (RDF) and the Web Ontology Language (OWL), and also our Ontologic Design-/Modeling Language (ODL/OML), Natural Language Processing to Web Ontology Language (NLP2OWL), and also Natural Image Processing to Web Ontology Language (NIP2OWL).

 

   
Zooming Mind Map™ 200x
Die skalierbare Gedankenabbildung==Zooming Mind Map ist eine gra- phische Benutzerschnittstelle==Graphical User Interface (GUI), die die skalierbare Benutzeroberfläche==Zooming User Interface (ZUI) und das Gedankenabbilden==Mind-Mapping vereinigt. Die skalierbare Gedankenabbildung kann als die generelle Benutzerschnittstelle für unsere Web-BetriebsSysteme (WBSe) und unsere Cloud-Betriebs- Systeme ((CBSe) genutzt werden.
The Zooming Mind Map is a Graphical User Interface (GUI), which unites the Zooming User Interface (ZUI) and the mind mapping. The Zooming Mind Map can be used as the general user interface for our Web Operating Systems (WOSs) and our Cloud Operating Systems (COSs) as well.

 

   
Plan & Proof™ 2005
Plan & Proof ist eine Geschäftseinheit, die sich mit den hoch kom- plexen Aufgaben der Planung und der Beweisführung beschäftigt. Hierzu werden die fortschrittlichsten Methoden und Techniken aus zwei der komplexesten Bereichen der Informatik integriert und an- gewendet.
Plan & Proof is a business-unit, that is concerned with the highly complex tasks of planning, and proofing. For this purpose the most progressive methods and technics from two of the most complex areas of Informatics are integrated, and applied.

 

   
Map & Globe™ 30.March.2011
Map & Globe entwickelt WebGL basierte Geographische Informations- Systeme (GIS) wie Landkarten und virtuelle Globen (zum Beispiel KDE Marble oder NASA World Wind).
Map & Globe develops WebGL based Geographic Information Systems (GIS) like maps and virtual globes (for example KDE Marble or NASA World Wind).

 

   
OntoGlobe™/OntoEarth™ 2006
OntoGlobe ist unser ontologie- oder/und ontologikbasierter virtueller Globus. Selbstverständlich ist OntoMap die 2D-Variante und OntoGIS arbeitet mit beiden Geoinformationsgrundlagen und zusammen mit Map & Globe
OntoGlobe is our ontology- or/and ontologic-based virtual globe. For sure, OntoMap is the 2D variant and OntoGIS works with both geo information basis and together with Map & Globe.

 

   
OntoSpace™ 2006
OntoSpace ist unser ontologie- oder/und ontologikbasiertes virtuelles nD Modell des Weltraums das auf 2D und 3D Karten des Universums basiert.
OntoSpace is our ontology- or/and ontologic-based virtual nD model of the space that is based on 2D and 3D maps of the universe.

 

   
OntoBeam™ 11.July.2013
OntoBeam ist eine RFID- beziehungsweise NFC-, WPAN-, WLAN- und Multi-Band WLAN-basierte Technologie, inklusive IPRFID/IPNFC und SecureRFID/SecureNFC sowie z. B. Bluetooth, Zigbee, Z-Wave, Full Wi-Fi oder direkt MultiWLAN, die es BenutzerInnen erleichtert unver- züglich Prozesse und Daten, wie Dateien, Bilder, Fotos, Filme oder andere Datentypen zu nutzen, weiterzugeben und auszutauschen. Dazu löst ein/eine BenutzerIn durch einfaches Zusammenführen von zwei NFC-fähigen Geräten eine Übertragung oder einen Dienst aus, OntoBeam übergibt dann von RFID/NFC zu WPAN, WLAN oder/und MultiWLAN, die darauffolgend für die eigentliche Datenübertragung oder/und Dienstnutzung verwendet werden. Nicht nur hierdurch wird die Handhabung von OntoBeam erleichtert, sondern zusätzlich durch die optionale Nutzung von semantischen Technologien für die Netz- werkdienst- und datenentdeckung und dem Management.
OntoBeam is an RFID respectively NFC, and WPAN and WLAN based technology, inclusive IPRFID/IPNFC and SecureRFID/SecureNFC, and also e.g. Bluetooth, ZigBee, Z-Wave, Full Wi-Fi, or MultiWLAN direct- ly, that makes it easier for users to instantly use, share, and inter- change processes and data, like files, images, photos, videos, or other types of data. For doing so, a user triggers a transfer or a service by simply touching two NFC-enabled devices together, then OntoBeam hands over from RFID/NFC to WPAN, WLAN, or/and Multi- WLAN, that subsequently are utilized for the actual data transfer or/ and service usage. Not only through this the handling of OntoBeam is made easier, but additionally with the optional utilization of sem- antic technologies based on ontologies for the network service dis- covery and the management.

 

   
Brokered Network™ 200x
Das vermittelte/verhandelte Netzwerkrechnen ist ein Ansatz des Dienstrechnens==Service-Computing bei dem Resourcen und Diens- te, die über ein Netzwerk zugägngig sind, durch eine dritte Instanz verwaltet und gelenkt werden.
The Brokered Network computing is a service computing approach where resources and services, which are accessible over a network, are managed by a third instance between publisher and consumer.

 

   
     
Storage in the Cloud™ 2006
Speicher in den Wolken==Storage in the Cloud ist ein Datenspeicher auf der Basis der Paradigmen des Cloud-Computings und unserem Castle in the Cloud-Computing. Das Konzept kann auch zu einem reinen Peer-to-Peer- oder Managed Peer-to-Peer DatenSpeicher (P2PDS oder MP2PDS) erweitert werden.
Storage in the Cloud is data storage based on the paradigms of the cloud computing and our Castle in the Cloud computing. The concept can be extended to a Peer-to-Peer or Managed Peer-to-Peer Data Storage (P2PDS or MP2PDS) as well.

 

   
Castle in the Cloud™ Computing 2006
Castle in the Cloud-Computing ist der Ansatz der die beiden alten entgegengesetzten Entwicklungsrichtungen Cloud-Computing und Ubiquitous-Computing so vereinigt, dass sie gemeinsam den größt- möglichen Nutzen und das höchste Sicherheitsniveau für die/den Be- nutzerIn bieten. Das wesentliche charakteristische Merkmal ist die Lokalität von eigenen Daten und Funktionalität, so dass diese nicht erst über ein externes Netzwerk geladen werden müssen und sich so fast vollkommen der eigenen Verwaltung und Kontrolle entziehen. Der Ansatz umfasst auch eine lokale Realisierung die wir entsprechend als Intra-Cloud™ Computing bezeichnen. Beispiele für diesen Ansatz sind unser Hightech-Betriebssystem™ (HBS) OntoLinux™ und dessen Funktion des virtuellen Globus, die Pull-E-Mail aber auch die Smarten Stecker und die Holomer.
Castle in the Cloud computing is the approach to unite the two old opposite development directions cloud computing and ubiquitous computing in such a way, that they together provide the highest possible benefit and the highest level of security for the user. The essential feature is the locality of data and functions, so that they don't have to be loaded over an external network at first, which in this way nearly defies completely the own administration and cont- rol. The approach also comprise a local realization that we are calling accordingly Intra Cloud™ computing. Examples of this approach are our Hightech Operating System™ (HOS) OntoLinux™ and its virtual globe feature, the pull e-mail but also the Smart Sticks and the Holomer.

 

   
School in the Cloud™ Computing 2006 and 2011
Unser Konzept Schule in den Wolken==School in the Cloud umfasst Bildungssysteme und -umgebungen, die auf einem digitalen Ansatz, dem Proposal, unserem Hochtechnologischen und n-Dimensionalen BetriebsSystem (HBS & nDBS) OntoLinux, unseren Cloud-Comput- ing-Technologien, wie Schloss in den Wolken==Castle in the Cloud sowie unserer Feuerstelle==Fireplace und zudem unserer Architektur von Web-BetriebsSystemen (WBSen) genannt Boot to Web und den verwandten WolkenBetriebsSystemen==Cloud Operating Systems (COSs) sowie Web-Browsern basieren.
Our concept School in the Cloud comprises educational systems and environments based on a digital approach, The Proposal, our High- tech and n-Dimensional Operating System (HOS & nDOS) OntoLinux, our cloud computing technologies, like Castle in the Cloud, as well as our Fireplace, and additionally our architecture of Web Operating Systems (WOSs) called Boot to Web and related Cloud Operating Systems (COSs) as well as web browsers.

 

   
Market in the Cloud™ Computing 2006 and 2011
Unser Konzept Markt in den Wolken==Market in the Cloud umfasst Wirtschaftssysteme und -umgebungen, die auf einem digitalen An- satz, unserem Hochtechnologischen und n-Dimensionalen Betriebs- System (HBS & nDBS) OntoLinux, unseren Cloud-Computing-Techno- logien, wie Schloss in den Wolken==Castle in the Cloud und zudem unserer Architektur von Web-BetriebsSystemen (WBSen) genannt Boot to Web und den verwandten WolkenBetriebsSystemen==Cloud Operating Systems (COSs) sowie Web-Browsern basieren. Die Reali- sierung einzelner Marktplätze basiert auf unserem weiteren Konzept des Laden in den Wolken==Shop in the Cloud. Auch kann unserer Feuerstelle==Fireplace und das Kanalrechnen==Channel-Computing mit den Systemen des Markts in den Wolken verbunden werden. Hiermit können BenutzerInnen ihren eigenen Stand auf einem Markt im allgemeinen und im speziellen Fall eröffnen, wie zum Beispiel ge- meinsam mit anderen einen Flohmarkt, und dabei volle Kontrolle über ihre eigenen als auch der Kundendaten behalten.
Our concept Market in the Cloud comprises economical systems and environments that are based on a digital approach, our Hightech and n-Dimensional Operating System (HOS & nDOS) OntoLinux, our cloud computing technologies like Castle in the Cloud and additionally our architecture of Web Operating Systems (WOSs) called Boot to Web and related Cloud Operating Systems (COSs) as well as web brows- ers. The realization of single market places is based on our further concept of the Shop in the Cloud. Moreover, our Fireplace and the Channel Computing can be connected with the Market in the Cloud systems. With this users can open their own place on a market in the general and in the particular case, like for example together with others a flea market, and in this way keep full control over their data and the data of their customers.

 

   
Shop in the Cloud™ Computing 2006 and 2011
Unser Konzept Laden in den Wolken==Shop in the Cloud entwickelt einzelne Marktplätze für den Markt in den Wolken==Market in the Cloud. Zu diesem Zweck werden aktuelle Web-Technologien und anderen Lösungen mit den Systemen des Markts in den Wolken vor- teilhaft verbunden, wie unsere Feuerstelle==Fireplace und das Ka- nalrechnen==Channel-Computing. Somit können BenutzerInnen ihren eigenen Laden im Wolkenmarkt eröffnen und dabei volle Kontrolle über ihre eigenen als auch der Kundendaten behalten.
Our concept Shop in the Cloud developes single market places for the Market in the Cloud. For this purpose, actual web technologies are connected with other solutions, like our Fireplace and the Chan- nel Computing. In this way, users can open their own shop in the cloud market, and thereby keep full control over their data and the data of their customers.

 

   
AutoCloud™ Computing
Der Begriff AutoWolke==AutoCloud bezeichnet die Integration der Wolkenrechen- und Fahrzeugrechenparadigmen, das Anwendungen umfasst, die mit Fahrzeugkontroll- und Im-Fahrzeuginformations- und unterhaltungssystemen verbunden sind.
Tje term AutoCloud denotes the integration of the cloud computing and automotive computing paradigms, that comprises applications connected with vehicle control and In-Vehicle Infotainment (IVI) systems.

 

   
CarCloud™/Car in the Cloud™ Computing 3.April.2013
Die CarCloud-Lösung gleicht unserer anderen automobilen Cloud-Computing-Plattform AutoCloud, aber unterscheidet sich in dem Punkt, das sie auf das Fahrzeug und nicht auf die Fahrerin/den Fahrer und die Passagiere fokusiert. Dementsprechend basiert die CarCloud auch auf den zugehörigen Eigenschaften unserer verteilten Rechnerarchitektur und unsere Paket auf der einen Seite und auf der anderen Seite ist sie auch die Grundlage für die Dienste: A href="#mapcloud">MapCloud und AutoMapCloud. Im Allgemeinen sind vier Szenarien durch das sogenannte Car-to-X-Konzept erdacht: Car-to-Home, Car-to-Enterprise, Car-to-Infrastructure und Car-to-Car. Eine weitere Innovation von uns ist die Integration von unserer CarCloud- und AutoCloud-Rechenparadigmen mit unserem SchwarmIntelligenzSystem (SIS)/Swarming, das im Fall des Car-to-Car-Szenarios in dem AutoSemantic-Erweiterungspaket der System OntoLix und OntoLinux enthalten, während das Schwarmrechenparadigma bereits eine besondere Eigenschaft beider System ist.
The CarCloud solution equals our other automotive cloud computing platform AutoCloud, but differs in the point that it focuses on the vehicle and not on the driver and the passengers. Accordingly, the CarCloud is also based on the related features of our distributed computing architecture and our AutoSemantic::Car package on the one hand and on the other hand is also the base for the services: MapCloud and AutoMapCloud. Generally, four scenarios of application are envisioned by the so-called car-to-x concept: car to home, car to enterprise, car to infrastructure, and car to car. A further invention by us is the integration of our CarCloud and AutoCloud computing paradigms with our Swarm Intelligence System (SIS)/Swarming that in the case of the car to car scenario is also included in the AutoSemantic extension package of the OntoLix and OntoLinux systems, while the swarm computing paradigm is already a special feature of both systems.

 

   
MapCloud™ Computing
MapCloud basiert auf einem Positionierungs-/Navigationssystem, wie unserem MultiGPS, und einem oder mehreren Online-Straßenkarten. Zuästzlich kann unser OntoGlobus genutzt werden.
MapCloud is based on a positioning/navigation system, like our MultiGPS, and one or more online street maps. Additionally, our OntoGlobe can be used as well.

 

   
AutoMapCloud™ Computing
AutoMapCloud basiert auf dem Ansatz des Kartenwolkenrechnens== MapCloud-Computing und der Ontoscope-Architektur beziehungsweise aktiven Kameratechnologie==Active Camera. In Abhängigkeit von dem Gerät wird es in BikeMapCloud, CarMapCloud, PlaneMapCloud, ShipMapCloud und SpaceshipMapCloud, als auch MobileMapCloud, WearableMapCloud und RobotMapCloud unterteilt und mit den entsprechenden Cloud-Computing-Lösungen verbunden.
AutoMapCloud is based on the MapCloud computing approach and the Ontoscope achitecture respectively the Active Camera technology. Depending on the device it is diversified into BikeMapCloud, CarMapCloud, PlaneMapCloud, ShipMapCloud und SpaceshipMapCloud, as well as MobileMapCloud, WearableMapCloud, and RobotMapCloud, and connected with the related cloud computing solutions.

 

   
BikeMapCloud™ Computing 3.April.2013
Die Radwolkenkarte==BikeMapCloud ist das Gleiche, wie die Autowolkenkarte==AutoMapCloud, aber für Fahrräder und Motorräder.
The BikeMapCloud is the same like the AutoMapCloud, but for bicycles and motorcycles.

 

   
ShipMapCloud™ Computing 3.April.2013
Die Schiffwolkenkarte==ShipMapCloud ist das Gleiche, wie die Autowolkenkarte==AutoMapCloud, aber für Wasserfahrzeuge.
The ShipMapCloud is the same like the AutoMapCloud, but for watercrafts.

 

   
PlaneMapCloud™ Computing 3.April.2013
Die Flugzeugwolkenkarte==PlaneMapCloud ist das Gleiche, wie die Autowolkenkarte==AutoMapCloud, aber für Luftfahrzeuge.
The PlaneMapCloud is the same like the AutoMapCloud, but for aircrafts.

 

   
SpeechCloud™ Computing
Die Sprachwolke nutzt verschieden Sprachkörper und machinelle Übersetzungssysteme. BenutzerInnen können den Datenbestand für einfache Übersetzungen von einzelnen Wortpaaren als auch das ein- zelne oder hybride Übersetzungssystem für die Übersetzung von ganzen Sätze nutzen. Ideallerweise sollten BenutzerInnen auch die Möglichkeit haben Übersetzungspaare selbst hinzuzufügen. Das Sprachwolkensystem arbeitet in einer verteilten Weise, zum Beispiel über das Internetz. Andere grundlegende verteilte Rechnersystemarchitekturen, wie etwa die Peer-to-Peer- (P2P) und Kanalrechenparadigmen, können auch anstatt eines zentralen Rechners genutzt werden, wie wir es mit unserem P2P-Sprach- und Sprachkanalsystemen machen. Zudem kann das System durch Hinzufügung von weiteren Techniken und Technologien verbessert werden. So ermöglicht die Künstliche Intelligenz (KI) dem System z. B. das selbstständige aber auch das mit der/dem BenutzerIn gemeinsame bidirektionale Erlernen oder logische Implizieren von weiteren Übersetzungen. Der Einsatz der KI umfasst auch die Verknüpfung mit unseren ontologieorientierten Systemen, wie etwa OntoLix und OntoLinux, als auch OntoEarth/OntoGlobe, falls man zusätzlich noch ein GeoInformationsSystem (GIS) hinzufügt. Es kann auch in ein Betriebssystem und mit Büro-, E-Post-, Kommunikations- und weiteren Softwareanwendungen integriert werden, wie etwa der Internet-Telefonie/Voice-over-Internet-Protocol (VoIP). Selbstverständlich kann man die Sprachwolke sowohl mit stationären als auch mobilen Geräten nutzen.
The SpeechCloud is based on one or more different language corpora and Machine Translation (MT) systems. Users can use the database directly for simple translations based on single word pairs, as well as the single or hybrid translation system for the translation of whole sentences. Ideally, users should have the possibility to add translation pairs on their own as well. The SpeechCloud system works in a distributed way for example over the internet. Other basic distributed computing system architectures, like the Peer-to-Peer (P2P) and Channel Computing paradigms, can be used instead of a central server as well, as we do it with our P2P Speech and Speech Channel systems. Furthermore, the system can be enhanced with Artificial Intelligence (AI), like the self-employed learning of new translations by e.g. following conversations or implying logically, and connecting with our ontology oriented systems OntoLix and OntoLinux, and a GeoInformation System (GIS), like our OntoEarth/OntoGlobe. It can also be integrated with an operating system, office suites, e-mail and chat programs, and further software applications, like for example the Voice-over-Internet-Protocol (VoIP), and used with stationary and mobile devices.

 

   
     
Boot to WebCore™ 26.February.2014
Boot to WebCore (B2WC) ist die Weiterentwicklung unserer Web-Be- triebsSystemPlattform (WBSP) Boot to WebKit (B2WK). Das neue Konzept hinter B2WC ist die WebCore-Komponente der grundlegen- den Darstellungsfunktionseinheit für die textbasierte Auszeichnungs- sprache HyperText Markup Language (HTML Rendering-Engine) WebKit zu behalten und ihre allgemeine Architektur durch andere Programmiersprachen und deren Interpretern zu erweitern. Eine erste Erweiterung der WBSP ist unser C++Core, der auf dem Interpreter Cling für die Programmiersprache C++ basiert, neben dem weiterhin optional verfügbaren JavaScriptCore, der auf einem JavaScipt-Inter- preter basiert. Auch ist es möglich weitere Kerne und zugehörige Interpreter für die gleichen und andere Programmiersprachen auszu- tauschen und hinzuzufügen, wie zum Beispiel ein PythonCore oder ein LuaCore, die auf zugehörige Interpreter basieren.
Boot to WebCore (B2WC) is the further development of the Web Operating System Platform (WOSP) Boot to WebKit (B2WK). The new concept behind B2WC is to keep the WebCore component of the foundational HyperText Markup Language (HTML) rendering engine WebKit and make its general architecture extensible through other programming languages and their interpreters. A first extension of the WOSP is our C++Core, which is based on the interpreter Cling for the programming language C++, besides the still optionally available JavaScriptCore based on a JavaScript interpreter. Also possible is to exchange and to add further cores and related interpreters for the same and other programming languages, like for example a Python- Core and a LuaCore based on related interpreters.

 

   
Boot to WebKit™ 2010
Bei den Fingerübungen Boot to WebKit (B2WK) und Boot to Rekonq (B2R) handelt es sich um eine Web-BetriebsSystemPlattform (WBSP) und einem darauf aufbauenden Web-BetriebsSystem (WBS), die sich besonders für die Erweiterung zu Cloud-BetriebsSystemen™ (CBSen) und die Ausführung von mobilen Cloud-Computing-Lösungen eignen, für die üblicherweise nur geringe oder keine Sicherheitseigenschaften benötigt werden, da man alle seine Daten an fremde Dienstleister übergibt, die diese nutzen, analysieren und an Dritte weiterverkaufen und somit das wahre Sicherheitsproblem darstellen. Selbstverständ- lich kann man unsere WBSP B2WK und WBS B2R aber auch mit unse- ren sicheren Personal Server™ und Personal Cloud™ Technologien im Internet als auch in der Intra-Cloud™ nutzen, die beide auf unseren Castle in the Cloud™ Computing-Lösungen basieren.
Eine Weiterentwicklung von B2WK ist die WBSP Boot to WebCore (B2WC).
The apprentice pieces Boot to WebKit (B2WK) and Boot to Rekonq (B2R) are a Web Operating System Platform (WOSP) and a Web Operating System (WOS) built upon, that are especially suited for the extension to Cloud Operating Systems™ (COSs) and the execut- ion of mobile cloud computing solutions, which usually need only few or no security features, because someone gives all of her/his data to unknown service providers, who use, analyse, and sell them to third parties, and in this way represent the true security problem. Surely, our WOSP B2WK and WOS B2R can also be used with our secure Personal Server™ and Personal Cloud™ technologies in the internet as well as in the Intra Cloud™, which both are based on our Castle in the Cloud™ computing solutions.
A further development of B2WK is the WOSP Boot to WebCore (B2WC).

 

   
Boot to Rekonq™ 2010
Unser Web-Betriebssystem (WBS) Boot to Rekonq™ (B2R) alias RekonqOS™ baut auf unserer WBS-Plattform Boot to WebKit™ (B2WK) und dem alleine lauffähigen Web-Browser Rekonq auf, der wiederum eine teilweise Implementation des Web-Browsers und Da- teimanagers Konqueror ist, der der Kern der Desktop- und Arbeits- umgebung des KDE-Projekts ist. Alle drei Softwaren (B2WK, B2R und Rekonq) basieren wiederum auf der Darstellungsfunktionseinheit für die textbasierte Auszeichnungssprache HyperText Markup Language (HTML Rendering-Engine) WebKit, während KDE den Fenstersystem- bausatz (Windowing-Toolkit) Qt nutzt. Aufgrund dieser raffinierten WBS-Software-Architektur und den damit einhergehenden Kompati- bilitäten kann unser WBS B2R selbstverständlich auch zu einem Cloud-BetriebsSystem (COS) mit unseren sicheren Personal Server™ und Personal Cloud™ Technologien erweitert werden, die beide für das Internetz als auch der Intra-Cloud™ geeignet sind und auf un- seren Castle in the Cloud™ Computing-Lösungen basieren. B2R kann aber auch direkt mit allen anderen Desktop-Anwendungen von KDE und von unserem Hightech Betriebssystem™ (HBS) OntoLinux™, wie zum Beispiel unserem Ontoscope™ basierten Ontologic Desktop™, OntoMap™, OntoGlobe™/OntoEarth™ und OntoGIS™ sowie unter anderem unsere Lösungen Map & Globe™ und Peer-to-Peer (P2P) Search (P2PS™) and Find (P2PF™) zusammen arbeiten.
Wegen der Nutzung von vielen gleichen grundlegenden Software-Bi- bliotheken ist unser RekonqOS™ auch mit anderen Betriebssystemen größtenteils kompatibel.
Our Web Operating System (WOS) Boot to Rekonq™ (B2R) alias RekonqOS™ builds upon our WOS platform Boot to WebKit™ (B2WK) and the standalone web browser Rekonq, which again is in parts an implementation of the web browser and file manager Konqueror that is the core part of the desktop and working environment of the KDE project. All three softwares (B2WK, B2R and Rekonq) are based again on the HyperText Markup Language (HTML) rendering engine WebKit, while KDE uses the Qt windowing toolkit. Due to this sophi- sticated WOS software architecture and the thereby accompanied compatibilities our WOS B2R can be extended to a Cloud Operating System with our secure Personal Server™ and Personal Cloud™ technologies, which both are suited for the internet as well as the Intra Cloud™ and are based on our Castle in the Cloud™ computing solutions. The B2R also works directly together with all other desk- top applications of KDE and of our Hightech Operating System™ (HOS) OntoLinux™ and in this way as well with e.g. our Ontoscope™ based Ontologic Desktop™, OntoMap™, OntoGlobe™,/OntoEarth™, and OntoGIS™, but also with our Map & Globe™ and Peer-to-Peer (P2P) Search (P2PS™) and Find (P2PF™) solutions among so many others. Due to the usage of many equal software libraries, our RekonqOS™ is also compatible to a great extent with other oper- ating systems.

 

   
Sugarfox™ 9.October.2013
Sugarfox bringt die Lernumgebung Sugar in ihrer Web-Version, die auf HTML, CSS und JavaScript basiert, mit WebBetriebsSystemen (WBS- en), wie unserem Boot to WebKit, zusammen. Sugarfox ist unser drit- tes Betriebssystem mit einer skalierbaren Benutzerschnittstelle.
Sugarfox brings the learning environment Sugar in its web version, which is based on HTML, CSS, and JavaScript, with Web Operating System (WOS), like our Boot to WebKit, together. Sugarfox is our third operating system with a Zooming User Interface.

 

   
Silverfox™ 200x
Silverfox ist eine überarbeitet Variante von unserem WebBetriebsSys- tem (WBS) Sugarfox, die sich nach den Bedürfnisse von älteren Per- sonen richtet. Dazu wurde eine neue Icon-Bibliothek entworfenen und neben den normalen Aktivitäten und ihren Softwareanwendun- gen auch weitere Aktivitäten hinzugefügt, die z. B. Assistenzsysteme und speziellere Anwendungen aus den Bereichen Gesundheitsvorsor- ge, Heimautomatisation, Alarm- und Sicherheitssysteme und Umge- bungsintelligenz sowie Softwareanwendungen für Aktivitäten des täglichen Lebens und betreuten Wohnens umfassen. Extrem hilfreich ist das minimalistische Design der graphischen Benutzerschnittstelle von Silverfox, die auf der Metapher der skalierbaren Benutzerschnitt- stelle basiert, und die leicht zu erlern- und benutzbaren Aktivitäten.
Silverfox is an overworked variant of our Web Operating System (WOS) Sugarfox, which complies with the needs of elderly persons. For this reason, a new icon library was designed and besides the common activities and their software applications further activities have been added as well, that for example comprise assistance systems and more specific applications of the fields of health care, home automation, alarm and safety systems, and ambient intellig- ence, and also software applications for activities of daily living and assisted living. Extremely helpful is the minimalistic design of the Graphical User Interface (GUI) of Silverfox, which is based on a Zooming User Interface (ZUI) metaphor, and the easy to learn and use activities.

 

   
Managed Peer-to-Peer™(MP2P) 3.February.2013
Managed-Peer-to-Peer (MP2P) umfasst weitere Typen oder Hybride von Peer-to-Peer-Computing, Cloud-Computing und auch Castle in the Cloud-Computing. Konzeptionell funktioniert es in solch einer Weise, dass auf der einen Seite die Zugänge zu den verteilten Resourcen und Diensten durch einen Prozess zentral verwaltet und gelenkt werden, der selber verteilt ist, sodass die BenutzerInnen nichts machen müssen, und auf der anderen Seite den BenutzerInnen eine zentralen Zugangsstelle zu den einzelnen Resourcen und Diensten geboten wird, wie unsere Serie Peer-to-Peer (P2P) Suche (P2PS) und Finde (P2PF), unser gesellschaftliches Netzwerk Fireplace mit E-Post, Kurznachrichten und Mikro-Blog durch unsere Pull-E-Post, DatenSpeicher in den Wolken==Storage in the Cloud in der geleiteten Version und anderen. Somit erhalten die BenutzerInnen die Alternative und Flexibilität Dienstleister frei und anonym auszuwählen, den Schutz gegen Werbung als auch ihrer Privatsphäre und den Komfort einer einzigen Anlaufzugangsstelle und auch einer frei konfigurierbaren Aufbereitung und Darstellung ihrer Informationen und Daten für jeden Gebrauch und jedes Gerät durch die neutral verwaltete und gelenkte Schicht in der Mitte zwischen ihnen und den Anbietern. Idealerweise ist dies direkt in die World-Wide-Web-Schicht und Netzwerkprotokolle integriert, insbesondere von dem Intranetz und dem Internetz, indem z. B. Domain-Addressen genommen werden, die mit 'p2p.a-domain-name.tld' beginnen.
Managed Peer-to-Peer (MP2P) comprises further types or hybrids of Peer-to-Peer computing, cloud computing, and also Castle in the Cloud computing. Conceptually, it works in such a way that on the one side the accesses to distributed resources and services are managed by a central process that itself is distributed, so that the users do not have to do anything, and on the other side a central access point is offered to the users to the single resources and services, like our series Peer-to-Peer (P2P) Search (P2PS) and Find (P2PF), our social network Fireplace with e-mail, short message and microblog by our Pull E-Mail, data Storage in the Cloud in the managed version, and others. Hence the users get the choice and the flexibility to choose and use sources and service providers freely and anonymously, the protection against advertisement as well as of their privacy, and the comfort of a one-stop access point and also of a freely configurable preparation and presentation of their informations and data for every utilization and every device by the neutrally managed layer in the middle between them and the providers. Ideally, this is integrated directly into the World Wide Web layer and the network protocols, specifically of the intranet and the internet, by using e.g. domain addresses beginning with 'p2p.a-domain-name.tld'.

 

   
     
P2PS™ 200x
P2PS ist unsere Software-Plattform für Peer-to-Peer-Suchmaschinen (P2PS) für das Intranet und Internet mit optionalem Sprachbedie- nungssystem. Die Plattform wurde so entwickelt, dass sie durch wei- tere Such- und Findefunktionen, wie etwa der Suche nach Dokumen- ten und Büchern (DocP2PS), Musik (MusicP2PS), Bildern (ImageP2PS) und Videos (VideoP2PS) sowie Blogs (BlogP2PS), der geographischen Suche (GeoP2PS) und sogar dem semantischen/ontologiebasierten und ontologischen Finden mit OntoP2PF, erweitert werden kann.
P2PS is our software platform for Peer-to-Peer (P2P) Search engines (P2PS) for the intranet and internet with optional voice-operated command and control system. The platform has been developed in such a way that it could be extended with further search and find functions, like e.g. the search for documents and books (DocP2PS), music (MusicP2PS), images (ImageP2PS) and videos (VideoP2PS), and Blogs (BlogP2PS), as well as the geographic search (GeoP2PS), and even the semantic/ ontology-based and ontologic find with OntoP2PF.

 

   
DocP2PS™ 1.April.2011
DocP2PS erlaubt die Suche von Dokumenten und Büchern mit unserer Software-Plattform für Peer-to-Peer-Suchmaschinen (P2PS).
DocP2PS enables the search of documents and books with our soft- ware platform for Peer-to-Peer (P2P) Search engines (P2PS).

 

   
ImageP2PS™ 1.April.2011
ImageP2PS erlaubt die Suche von Bildern mit unserer Software-Platt- form für Peer-to-Peer-Suchmaschinen (P2PS).
ImageP2PS enables the search of images with our software platform for Peer-to-Peer (P2P) Search engines (P2PS).

 

   
VideoP2PS™ 1.April.2011
VideoP2PS erlaubt die Suche von Videos mit unserer Software-Platt- form für Peer-to-Peer-Suchmaschinen (P2PS).
VideoP2PS enables the search of videos with our software platform for Peer-to-Peer (P2P) Search engines (P2PS).

 

   
MusicP2PS™ 2.April.2011
MusicP2PS erlaubt die Suche von Musik mit unserer Software-Platt- form für Peer-to-Peer-Suchmaschinen (P2PS).
MusicP2PS enables the search of music with our software platform for Peer-to-Peer (P2P) Search engines (P2PS).

 

   
BlogP2PS™ 2.April.2011
BlogP2PS erlaubt die Suche von Blogs mit unserer Software-Platt- form für Peer-to-Peer-Suchmaschinen (P2PS).
BlogP2PS enables the search of blogs with our software platform for Peer-to-Peer (P2P) Search engines (P2PS).

 

   
GeoP2PS™ 31.March.2011
GeoP2PS integriert Geographische InformationsSysteme (GIS), wie sie etwa von Map & Globe™ entwickelt werden, mit unserer Soft- ware-Plattform für Peer-to-Peer-Suchmaschinen (P2PS).
GeoP2PS integrates Geographic Information Systems (GIS), like they are developed for example by Map & Globe™, with our software plat- form for Peer-to-Peer (P2P) Search engines (P2PS).

 

   
OntoP2PF™ 200x
OntoP2PF ist eine Ontologiebasierte oder/und Ontologische Peer-to-Peer-Findemaschine™ (OntoP2PF). Sie basiert auf der Integration unserer Plattform für Peer-to-Peer-Suchmaschinen (P2PS) mit den Prinzipien der semantischen P2P-Netzwerke, die Netzwerkknoten wie DomänenNameSystem-ähnliche Domänennamen mit semantischer Be- deutung klassifizieren und diese semantische Bedeutung der Knoten sowie ihres Inhaltes behalten, die durch unseren ontologiebasierten oder/und ontologischen Ansätze zu einer Findemaschine erweitert wird. Hierdurch sind auch die Ausführungen von komplexen Abfragen mit Abfragesprachen, z. B. Structured Query Language (SQL), Ext- ensible Markup Language (XML) Query Language (XQuery) oder Resource Description Framework (RDF) Query Languages (RDQLs), möglich.
OntoP2PF is an Ontology-based or/and Ontologic Peer-to-Peer Find-engine™ (OntoP2PF). It is based on the integration of our software platform for Peer-to-Peer (P2P) Search engines (P2PS) with the principles of semantic P2P networks, which classify the network nodes as Domain Name System-like domain names with semantic meanings and keep these semantic meanings of nodes and their contents, that is extented to a find machine by our ontology-based or/and ontologic approaches. In this way the executions of complex queries by query languages, e.g. Structured Query Language (SQL), Extensible Markup Language (XML) Query Language (XQuery) or Resource Description Framework (RDF) Query Languages (RDQLs), are possible as well.

 

   
Pull E-Mail™ 7.March.2011
Pull E-Mail erweitert Elektronische Post-Programme um Funktionalitä- ten eines Mikro-Blogs oder/und sozialen Netzwerks, die es ermögli- chen Nachrichten von beliebiger Länge, Informationen in beliebigen Formaten des World Wide Webs als auch Metainformationen als ein Veröffentlicher anderen Personen, den Beziehern, zur Verfügung zu stellen. Dazu werden auf einer beliebigen Web-Seite, die sich sogar auf dem eigenen mobilen Endgerät befinden kann, Möglichkeiten an- geboten um sich zum Beispiel über die angebotenen Themen und In- halte oder bereits veröffentlichten Inhalte zu informieren sowie sich bei einer/einem VeröffentlicherIn anzumelden. Ein externer Spe- zialdienst wird so wie bei der Nachrichteneinspeisung nicht benötigt. Obwohl die grundlegende Technologie nicht ganz neu ist und auch diskutiert wird, ob die elektrische Post überhaupt nur auf das so ge- nannte Push-Prinzip bei ihrer Erfindung festgelegt wurde, ist diese Technik anscheinend nicht weit verbreitet oder sogar noch nicht implementiert.
Pull E-Mail extends email readers with functionalities of a microblog or/and social network that make possible to provide as a publisher messages of any length, informations in any formats of the World Wide Web as well as any meta informations to other persons, the subscribers. For this purpose simple possibilities are given on a ran- dom website, which even can be on the own Mobile Device, to in- form oneself of the offered themes and contents or the already pub- licated contents as well as to subscribe to a publisher. In this way an external special service is not needed, like with newsfeeds. Des- pite that the technology is not really new and it is also discussed if the email was only specified on the push principle at all, the tech- nique is obviously not widely spread or even not implemented at all.

 

   
Channel Computing™ 5.February.2013
Programmkanalrechnen==Channel-Computing ist ein Ansatz, der mit einem dezentralisierten gesellschaftlichen Netzwerk verglichen werden kann, das keine bestimmten Ontologien für die Inhalte und die Nutzung vorgibt. Channel-Computing kann als grundlegender Teil unseres Managed Peer-to-Peer (MP2P)-Ansatzes genutzt werden.
Channel Computing is an approach that could be compared with a decentralized social network, which has no specific ontologies for the contents and the utilization. Channel Computing can be used as the basic part of our Managed Peer-to-Peer (MP2P) approach.

 

   
OntoWiki™ 1.0 200x and 2007 or 2008
Die OntoWiki-Technologie integriert die Technolgien der Wiki und der ontologiebasierten oder/und ontologischen Anwendungen und geht dabei weit über die Bereiche des Wissensmanagements und der Soft- wareentwicklung hinaus. Was unsere OntoWiki-Technologie neben den Grundlagen der OntologieOrientierten (OO II) und ontologischen Ansätze einzigartig macht sind ihre multilingualen multimodalen multi- medialen Eigenschaften für alle Arten von Mensch-, Tier- und Ma- schinensprachen, menschlichen und tierischen Sinnen und Machinen- senoren sowie Informationen in textueller, visueller, akustischer und anderen Ausprägungen, die unifizierte und gemeinsame Benutzbarkeit durch Menschen und Maschinen als auch aus konzeptioneller Sicht durch Tiere, die Nutzung als Teil eines verteilten Computersystems, eines universalen Ontologie-Servers und eines Informationssystems, wie unser Ontologics.info, als auch die Verbindung mit dem Bereich der Kybernetik.
The OntoWiki technology integrates the technologies of the wiki and the ontology-based or/and ontologic applications, and thereby goes far beyond the fields of knowledge management and software en- gineering. What makes our OntoWiki technology unique besides the foundations of the Ontology-Oriented (OO II) and Ontologic applic- ations, are its unique multilingual multimodal multimedia features for all kinds of human, animal, and machine languages, human and ani- mal senses and machine sensors, and also informations in textual, visual, acoustical, and other manifestations, the unified and common usability by humans and machines, as well as by animals from a con- ceptual point of view, the utilization as part of a distributed comput- er system, a universal ontology server, and an information syste, like our Ontologics.info, as well as the link to the field of cybernetics.

 

   
OntoWiki™ 2.0 200x and 5.February.2013
Die OntoWiki-Technologie der zweiten Generation basiert auf unseren Technolgien der OntoWiki 1.0 und des Programmkanalrechnens== Channel-Computing. Die OntoWiki 2.0 kann als ein Ontologieorientiertes oder/und Ontologisches Peer-to-Peer-Netzwerk (OntoP2P) betrieben werden.
The OntoWiki technology of the second generation is based on our technologies of the OntoWiki 1.0 and the Channel Computing. The OntoWiki 2.0 can be operated as an Ontology-oriented or/and Ontolog- ic Peer-to-Peer network (OntoP2P).

 

   
Social Web Services™ 200x
Social Web Services==gesellschaftliche Web-Dienste umfassen alle Leistungen, die zum Aufbau und Betrieb von gesellschaftlichen Netz- werken benötigt werden. Solche gesellschaftlichen Web-Dienste können auf zentralisierten, Peer-to-Peer oder hybriden Netzwerkar- chitekturen basieren und mit dem sogenannten Cloud-Computing in- tegriert werden.
Social Web Services comprise all services that are needed for the build up and operation of social networks. Such social web services can be based on centralized, peer-to-peer, or hybrid network archi- tectures, and integrated with the so-called cloud computing.

 

   
Fireplace™ 200x
Mit dem Begriff Fireplace==Feuerstelle bezeichnen wir die Integration von gesellschaftlichen Web-Diensten und Web-Browser-Technologi- en, insbesondere unsere Boot to Web-Systeme und spezielle Versio- nen des Web-Browsers Firefox der Mozilla Stiftung. Hierdurch und wegen den wirtschaftlichen Abhängigkeiten und privaten Eigentümer- strukturen großer (gesellschaftlicher) Internetzdienstleister ist die Feuerstelle auch für soziale, politische und staatliche Aktivitäten bestens geeignet.
Under the label Fireplace we denote the integration of social web services and web browser technologies, specifically our Boot to Web systems, and special versions of the web browser Firefox by the Mo- zilla Foundation. In this way and due to the economical dependences and private ownership structures of large (social) internet service providers, the Fireplace is ideally suited for social, political and gov- ernmental activities as well.

 

   
OntoSocial™ 201x
OntoSocial bringt semantische und ontologische Web-Technologien zusammen, insbesondere unsere ontologische Systemarchitektur mit ihren graphbasierten Möglichkeiten der Wissensspeicherung, -dar- stellung, -zusammenführung und -suche. Somit setzt dieses Konzept direkt auf weitere Konzepte als auch Techniken auf, die wir bereits für unsere Such- und Findemaschine Ontologics.info, unsere Inter- netzdienstplatform Fireplace und unserem darauf basierenden Ansatz der Demokratie NG verwenden.
OntoSocial brings semantic and ontologic web technologies, specif- ically our Ontologic System architecture with its graph-based capab- ilities of knowledge storing, presenting and searching together. In this way, this concept is directly put on further concepts as well as techniques, that we already apply for our search and find machine Ontologics.info, our internet service platform Fireplace, and our ap- proach of the Democracy NG based on it.

 

   
Adapative Point Cloud™/Point Cloud 2.0 18.February.2013
Die Technik der adaptiven Punktwolke ist charakterisiert durch das Adaptieren der Projektion von Punkten für die Optimierung der Pro- zesse der Filterung, Segmentierung, Oberflächenrekonstruktion und Modellanpassung während diese ablaufen. Hierdurch können in allen einzelnen Verarbeitungsschritten die aktuellen Datenvolumen redu- ziert und schneller verabeitet werden und präzisere Resultate gelie- fert werden, die wiederum nicht nur den darauffolgenden Prozess unterstützen, sondern auch der gesamten Prozesskette. In der Pra- xis kann dies durch die Nutzung von verschiedenen Formen, Ausrich- tungen, Gruppierungen, Dichten sowie Frequenzen im Sinne einer Fokusierung der Punktprojektion, physikalischen Prinzipien der Projek- tionstechnologien, Positionierungen der projektierenden Geräte und so weiter erreicht werden.
The Adapative Point Cloud technique is characterized by adapting the projection of points for optimizing the processes of filtering, seg- mentation, surface reconstruction, and model fitting while these are running. In this way in all single processing steps the current volume of data can be reduced and faster processed, and more precise re- sults can be delivered, that in turn does not support the subsequent process only, but also the whole process chain. In practice, this can be done by the use of different shapes, orientations, aggregations, densities, as well as frequencies of the point projection, physical principles of the projection technologies, positionings of the project- ing device(s), and so on.

 

   
Curve Cloud™ 18.January.2013
Die Technik der Kurvenwolke funktioniert wie die Technik der Punkt- wolke, aber basiert auf Kurven anstatt Punkten, die zum Beispiel auf runden Objekten projeziert Muster ergeben, die ähnlich zu den Lini- en von Höhenlinienkarten aussehen. Hierdurch können die Prozesse der Filterung, Segmentierung, Oberflächenrekonstruktion und Modell- anpassung im Vergleich zu der Technik der Punktwolke erheblich be- schleunigt werden, da vorteilhafte Informationen bereits in der Vor- auswahl von bestimmten Formen oder/und Mustern der ausgestrahl- ten Kurven und den resultierenden Kurvenwolkedaten enthalten sind. Die Effizienz dieser Technik, aber übrigens auch der Punktwolken- technik, kann zusätzlich durch die Nutzung mehrere gleicher oder un- terschiedlicher Projektionstechniken und -technologien, die Unter- stützung durch spezielle Hardware und die Kombination mit anderen Techniken und Technologien, wie zum Beispiel unsere Techniken der Laufzeitmessung 2.0 und des strukturierten Lichts 2.0, unsere Ontoskop-, Panorama-EMDAR, MultiEMDAR und Wavicle-Technologien und unserem Wellenfeldrechnen, noch erhöht werden.
The Curve Cloud technique functions like the point cloud technique, but is based on curves instead of points that for example projected on round objects result in patterns, which look similar to the lines of a contour map. In this way the processes of the filtering, segment- ation, surface reconstruction, and model fitting can be accelerated significantly in comparison to the point cloud technique, because the advantageous informations are already included in the preselection of specific forms or/and patterns of the projected curves and the resulting curve cloud data. The efficiency of this technique, but also of the point cloud technique by the way, can be increased even more by the utilization of several identical or different projection techniques and technologies, the support through special hardware, and the combination with other techniques and technologies, like for example our techniques of the time-of-Flight 2.0 and the structured light 2.0, our Ontoscope, Panoramic EMDAR, MultiEMDAR, and Wavicle technologies, and our Wave-Field Computing.

 

   
Adaptive Curve Cloud™/Curve Cloud 2.0 18.February.2013
Die Technik der adaptiven Kurvenwolke ist charakterisiert durch das Adaptieren der Projektion von Kurven für die Optimierung der Prozesse der Filterung, Segmentierung, Oberflächenrekonstruktion und Modellanpassung während diese ablaufen. Hierdurch können in allen einzelnen Verarbeitungsschritten die aktuellen Datenvolumen reduziert und schneller verabeitet werden und präzisere Resultate geliefert werden, die wiederum nicht nur den darauffolgenden Prozess unterstützen, sondern auch der gesamten Prozesskette. In der Praxis kann dies durch die Nutzung von verschiedenen Formen, Ausrichtungen, Gruppierungen, Dichten sowie Frequenzen im Sinne einer Fokusierung der Kurvenprojektion, physikalischen Prinzipien der Projektionstechnologien, Positionierungen der projektierenden Geräte und so weiter erreicht werden.
The Adapative Curve Cloud technique is characterized by adapting the projection of curves for optimizing the processes of filtering, segmentation, surface reconstruction, and model fitting while these are running. In this way in all single processing steps the current volume of data can be reduced and faster processed, and more precise results can be delivered, that again does not support the subsequent process, but also the whole process chain. In practice, this could be done by the use of different shapes, orientations, aggregations, densities, as well as frequencies of the curve projection, physical principles of the projection technologies, positionings of the projecting device(s), and so on.

 

   
Plane Cloud™ 19.January.2013
Die Technik der Flächenwolke funktioniert wie die Techniken der Punktwolke und der Kurvenwolke, aber basiert auf Flächen und füllt somit die Lücke zwischen den verschiedenen Techniken, die in unterschiedlichen Dimensionen basieren. Wie die anderen Techniken kann auch die Technik der Flächenwolke mit anderen Techniken integriert werden.
The Plane Cloud technique functions like the point cloud and the curve cloud techniques, but is based on planes and in this way fills the gap between the various techniques, which are based on different dimensions. Like the other techniques, the technique of the Plane Cloud can be integrated with other technique.

 

   
Adaptive Plane Cloud™/Plane Cloud 2.0 19.February.2013
Die Technik der adaptiven Flächenwolke funktioniert wie die Techniken der adaptiven Punktwolke und der adaptiven Kurvenwolke, aber basiert auf der Technik der Flächenwolke.
The Adapative Plane Cloud technique functions like the techniques of the adaptive point cloud and the adaptive curve cloud, but is based on the technique of the plane cloud.

 

   
Sharp 3D™ 19.March.2011
Sharp 3D ist eine Software, die 3D-Bilder schärft, die mit einer 3D- Kamera nicht korrekt gemacht wurden, so dass sie zum Beispiel durch ein Verwackeln verschwommen sind.
Sharp 3D is a software that sharpens 3D pictures that were not taken correctly with a 3D camera, so that they are blurred for ex- ample by a camera shake.

 

   
2D to Wave-Field™ (2D2WF™) 30.Aufgust.2012
Der Algorithmus 2D-zu-WellenFeld (2D2WF) synthetisiert aus einem einzelnen 2D-Bild oder einer einzelnen 2D-Aufnahme die entsprech- ende Datenstruktur eines Wellenfeldes.
The 2D to Wave-Field (2D2WF) algortihm renders/synthesis the cor- responding datastructure of a wave-field out of a single 2D image or a single 2D record.

 

   
Panoramic View-Based Rendering™ 28.December.2012
Die panoramaansichtbasierte Synthese==Panoramic View-Based Rendering funktioniert wie das bildbasierte Rendering, aber anstatt normaler 2D- oder 3D-Bilder benutzt es Panoramaansichten von bis zu 360°, die von 2D-Sensoren oder/und 2D-Kameras aufgenommen wurden, für das Rendering von 3D-Szenarien/Modellen. Selbstver- ständlich kann die Technik auch mit der 3D-bildbasierten Synthese kombiniert werden.
The Panoramic View-Based Rendering works like the image-based rendering, but instead of common 2D or 3D photos it uses panoramic images of up to 360°, which have been taken by 2D sensors or/and 2D cameras, for the rendering of 3D scenarios/models. For sure, the technique can be combined with the 3D Image-Based Rendering as well.

 

   
Panoramic Recording-Based Rendering™ 28.December.2012
Die panoramaschallaufzeichnungbasierte Synthese==Panoramic Sound Recording-Based Rendering funktioniert wie das bildbasierte Rendering, aber anstatt normaler 2D- und 3D-Tonaufnahmen (siehe auch 3D-schallaufzeichnungbasierte Synthese) benutzt es Tonaufnah- men von bis zu 360°, die von 2D-Sensoren oder/und 2D-Mikrofonen aufgenommen wurden, für das Rendering von 3D-Szenarien/Modellen. Selbstverständlich kann die Technik auch mit der 3D-schallbasierte Synthese kombiniert werden.
The Panoramic Sound Recording-Based Rendering works like the sound recording-based rendering, but instead of common 2D and 3D sound (siehe auch 3D Sound Recording-Based Rendering) recording it uses the sound recordings of up to 360° recording, which have been taken by 2D sensors or/and 2D microphones, for the rendering of 3D scenar- ios/models. For sure, the technique can be combined with the 3D Sound Recording-Based Rendering as well.

 

   
3D Photo Sphere™ 10.July.2013
3D-Fotoumgebung/-kugel ist eine Fotokugel, die entweder in einer 2D-Umgebung mit 3D-Bildern oder in einer echten 3D-Umgebung ohne oder mit 3D-Effekt erstellt wird. Sie kann mit unseren Karten- und Geoinformationsdiensten verknüpft werden, wie unsere Map- Cloud und AutoMapCloud.
3D Photo Sphere is a photo sphere, which is made either in a 2D environment with 3D pictures or in a true 3D environment without or with 3D effect. It can be intertwined with our map and geoinformat- ion services, like our MapCloud and AutoMapCloud.

 

   
3D Sound Sphere™ 11.July.2013
3D-Geräuschumgebung/-kugel ist eine Geräuschkugel, die entweder in einer 2D-Umgebung mit 3D-Geräuschen oder in einer echten 3D- Umgebung ohne oder mit 3D-Effekt erstellt wird.
3D Sound Sphere is a sound sphere, which is made either in a 2D environment with 3D sounds or in a true 3D environment without or with 3D effect.

 

   
3D Image-Based Rendering™ 10.June.2012
Die 3D-bildbasierte Synthese==3D Image-Based Rendering funktio- niert wie die 2D- und strahlenfeldbasierte Synthese-Techniken, aber anstatt 2D-Bilder benutzt es 3D-Bilder, die von 3D-Sensoren oder/ und 3D-Kameras aufgenommen wurden, für das Rendering von 3D- Szenarien/Modellen. Mit dieser Technik kann die gesamte Szene sehr einfach und schnell synthetisiert werden, dass bedeutet nicht nur die Außenhülle, sondern sogar der Rauminhalt wird erzeugt, wodurch dieser dann immersiv und navigierbar wird.
The 3D Image-Based Rendering works like the 2D and Ray-Field-Bas- ed Rendering techniques, but instead of 2D images it uses 3D im- ages, which have been taken by 3D sensors or/and 3D cameras, for the rendering of 3D scenarios/models. With this technique the whole scene can be rendered very easily and fast, that means not only the outer hull, but even the volumetric content is generated, whereby this becomes immersive and navigable.

 

   
3D Recording-Based Rendering™ 10.June.2012
Die 3D-schallaufzeichnungbasierte Synthese==3D-Sound Recording-Based Rendering funktioniert wie die 2D- und wellenfeldbasierte Synthese-Techniken, aber anstatt 2D-Tonaufnahmen benutzt es 3D-Tonaufnahmen, die von 3D-Sensoren oder/und 3D-Mikrofonen aufgenommen wurden, für das Rendering von 3D-Szenarien/Modellen. Mit dieser Technik kann die gesamte Szene sehr einfach und schnell synthetisiert werden, dass bedeutet nicht nur die Außenhülle, son- dern sogar der Rauminhalt wird erzeugt, wodurch dieser dann immer- siv und navigierbar wird.
The 3D Sound Recording-Based Rendering works like the 2D and Wave-Field-Based Rendering techniques, but instead of 2D sound recordings it uses 3D sound recordings, which have been taken by 3D sensors or/and 3D microphones, for the rendering of 3D scen- arios/models. With this technique the whole scene can be rendered very easily and fast, that means not only the outer hull, but even the volumetric content is generated, whereby this becomes immers- ive and navigable.

 

   
Object-Based Reconfiguration (OBR) 30.April.2013
Die ObjektBasierte Rekonfiguration oder Adaption (OBR or ORA) nutzt ein beliebiges Objekt, wie einen Balkencode, einen Raum, eine ganze Umgebung und sogar ein Geräusch, ein Temperaturniveau, irgendeine Veränderung in der Umgebung und so weiter, als ein Kennzeichen um ein mobiles Gerät für eine bestimmte Aufgabe zu (re)konfigurieren. Eine BenutzerIn kann ein Gerät tranieren indem einfach die Kamera, das Mikrofon oder ein anderer Sensor für die Erfassung des entspre- chenden Objekts genutzt wird und es mit der gewünschten Aufgabe verknüpft wird, die zum Beispiel den Wechsel der Benutzerschnitt- stelle umfasst.
The Object-Based Reconfiguration or Adaption (OBR or ORA) is a context aware application that uses an arbitrary object, like a bar- code, a room, a whole space, and even a sound, a temperature lev- el, any change in the environment, and so on, as a tag for (re)conf- iguring mobile devices to a specific task. A user can train a device by simply using the camera, the microphone, or another sensor for capturing the related object and connecting it with the desired task, which includes changing the user interface for example.

 

   
Barcode-Based Reconfiguration (BBR) 30.April.2013
Die BalkencodeBasierte Rekonfiguration oder Adaption (BBR or BRA) nutzt Etiketten mit optischen maschinenlesbaren Repräsentation von Daten, die mit mit einem Objekt und sogar einem Raum und einer ganzen Umgebung verbunden sind zu denen sie angebracht sind um ein mobiles Gerät für bestimmte Aufgaben zu (re)konfigurieren, das auch den Wechsel der Benutzerschnittstelle umfasst. Alle Typen von Barcodes können verwendet werden.
The Barcode-Based Reconfiguration or Adaption (BBR or BRA) uses optical machine-readable representation of data relating to an object and even to a room and a whole space to which they are attached for (re)configuring mobile devices to specific tasks, which includes changing the user interface. All types of barcodes can be utilized, specifically QR-code.

 

   
Space-Based Reconfiguration (SBR) 30.April.2013
Die raumbasierte Rekonfiguration oder Adaption==Space-Based-Reconfiguration oder -Adaption (SBR oderr SRA) ist eine räumliche kontextbezogene Anwendung, die mobile Geräte entsprechend (re)konfiguriert, zum Beispiel indem die Benutzerschnittstelle geändert wird. Dies kann auf die positionelle, optische, akustische und andere sensorische Informationen basieren, die durch die Sensoren eines mobilen Gerätes gewonnen werden, und andere Daten von und über die Umgebung. [hinzugefügt am 1. Mai 2013] Besonders interesant wird die Technologie, wenn sie mit unserem Sp@ce-Ansatz kombiniert wird.
The Space-Based Reconfiguration or Adaption (SBR or SRA) concept is a spacial context aware application that (re)configures mobile devices accordingly, for example by changing the user interface. This can be based on the positional, optical, acoustical, and other sensorial informations gained by the sensors of a mobile device, and other data of and about the environment. [added on the 1st of May 2013] Especially interesting becomes the technology if it is combined with our Sp@ce approach.
.

 

   
     

 

MultiCore Competence™ (MCC) 2005
Die neusten Generationen von Prozessoren basieren auf dem Prinzip mehrere Recheneinheiten/Kerne zu einem Rechenwerk zusammen zu fassen. Hieraus ergeben sich neue Möglichkeiten, aber auch neue Schwierigkeiten, insbesondere auf der Seite der Software-Technolo- gie.
Die ersten Resultate unseres Engagements sind die Entwicklungen der Mehrkernfähigkeit unserer auf dem L4-Mikrokern basierenden Be- triebssysteme OntoL4™, L4OntoLinux™ - OntoLinuxOnL4™, OntoL4- Linux™ - LinuxOnOntoL4™ and OntoL4OntoLinux™ - OntoLinuxOn- OntoL4™ (Onto²L4Linux™) sowie unserer ersten Generation von hochleistungsfähigen Mehrkern-Chipserien mit der e-quattro™ Chip- Serie und den neuronalen Netz(werk)kern- und -prozessorserien. Zwei der wichtigsten Eigenschaften der e-quattro™ Chip-Serie sind die Fähigkeit numerische Aufgaben mit einer unglaublichen Geschwin- digkeit zu berechnen sowie ihre Flexibilität. Diese Eigenschaften er- möglichen den Einsatz der quattro™ Chip-Serie zum Beispiel für die Beschleunigung von Computersimulationen als auch von Berechnun- gen in Managementsystemen im automobilen und aeronautischen Bereichen.
The newest generations of processors are based on the principal to integrate many processing units/cores into one chip. From this new possibilities, but also difficulties emerge, notably on the side of the software technology.
The first results of our commitment are the developments of the multicore capability of our L4 microkernel-based operating systems OntoL4™, L4OntoLinux™ - OntoLinuxOnL4™, OntoL4Linux™ - Linux- OnOntoL4™ and OntoL4OntoLinux™ - OntoLinuxOnOntoL4™ (Onto²- L4Linux™)™ as well as our first generation of high-performance multicore chip series with the e-quattro™ chip series and the Neural Net Core and Chip™/Processor (NNC™) series. Two of the most im- portant features of the e-quattro™ chip series are the ability to compute numerical tasks with an unbelievable speed and also its flexibility. With these features the quattro™ chip series can be used for example for the acceleration of computer simulations as well as of computations in management systems in the automotive and aeronautical fields.

 

   
MMS 2000
MMS steht für Mobile Media Security/ Mobile Medien Sicherheit.
MMS stands for Mobile Media Security.

 

   
Legally Valid E-Mail/Rechtsgültige E-Post 13.July2010
Unser System für eine rechtsgültige E-Post für die Versendung von elektronischen Briefen (e-mails) mit rechtsgültigen Inhalten basiert auf der Kombination der bereits in der Praxis funktionierenden, ak- zeptierten und rechtsgültigen Systemen der Zertifikate des weltwei- ten Netzes (World Wide Web) und Chipkarten/SmartCards, wie zum Beispiel Plastikgeld-, Geldautomaten-, Bank-, Versicherungs- und Kundenkarten sowie digitalen Ausweisen.
Our system for a legally valid e-mail for the sending of electronic le- tters/mails with legally valid contents is based on the combination of the already in the practice functioning, accepted and legally valid systems of the certifications of the World Wide Web and chip/smart cards, like for example cash cards, ATM cards, bank cards, insurance cards and debit cards as well as digital identificaitons.

 

   
     
Motorcycle 2007
Semantik für Motorräder
Semantic for motorcycles

 

   
Car 2007
Semantik für Automobile und Lastkraftwagen mit Fähigkeiten wie:
  • WirelessLAN-kompatible,
  • Bluetooth®-kompatible,
  • Multimodal Multimedia User-Interface (M2UI™) mit unserem Max-Sync™,
  • AITouch™,
  • IPNav™ (basierend auf dem Galileo System)/IPGPS™ (basie- rend auf dem Global Positioning System) und IQNav™ enthal- ten (siehe auch MultiGPS™),
  • proaktive Fahrt/sagt Zukunft voraus,
  • fähig die Gewohnheiten seiner Fahrer zu lernen,
  • fähig Menschen wahrzunehmen (z. B. Fussgänger) die Uhren tragen (z. B. Swatch Modelle Snowpass und Access),
  • fähig Menschen die ein Mobiltelefon mit sich führen wahrzu- nehmen,
  • fähig RFID zu erfassen (IPRFID™),
  • Schwarmfunktionalität mit anderen Fahrzeugen und der In- frastruktur durch unser Dedicated (Short Range) Commun- ications (DSRC) System DediCom™,
  • Transuspension™, falls vom Fahrzeug angeboten,
  • konform mit den Anforderung des Jahres 2012 der USA,
  • E-commerce vorbereitet (siehe auch die Applications-Web- Seite),
  • löst die Probleme der zu sehr fehlerbehafteten Freisprechalternativen wie Spracherkennung oder Kameras, die Sprache oder Gesten erkennen,
  • integrierte Datenarchitektur
  • und viel mehr, das Auto und Lastwagen einfach besser und wirklich smart macht.

Semantic for cars and trucks with capabilities like:

  • WirelessLAN-compatible,
  • Bluetooth®-compatible,
  • Multimodal Multimedia User-Interface (M2UI™) with our Max-Sync™,
  • AITouch™,
  • IPNav™ (based on the Galileo System)/IPGPS™ (based on the Global Positioning System), and IQNav™ inside (see also MultiGPS™),
  • proactive-drive/predict the future,
  • able to learn the habits of its drivers,
  • able to sense humans (e.g. pedestrians) wearing watches (e.g. Swatch models Snowpass, and Access),
  • able to sense humans wearing cellphones,
  • able to sense RFID (IPRFID™),
  • swarm-functionality with other cars, and the infrastructure by our Dedicated (Short Range) Communications (DSRC) system DediCom™,
  • Transuspension™, if offered by the car,
  • compliant with the requirements of the year 2012 of the USA,
  • e-commerce ready (see also the Applications-webpage),
  • solves the problems of too error-prone hands-free alternatives like speech recognition or cameras that recognise speech or gestures,
  • integrated data architecture,
  • and much more, that makes cars and trucks Simply better™ and Really Smart™.

 

   
Aeronautics/AeroSemantic™ 2007
Semantik für Flugzeuge, Hubschrauber und andere flugfähige Maschinen
Semantic for planes, helicopters and other flying machines

 

   
Space/SpaceSemantic™ 2007
Semantik für raumflugfähige Maschinen
Semantic for space-flying machines

 

   
Ship 23.March.2008
Semantik für Schiffe
Semantic for ships

 

   
House 2007
Semantik für Gebäude
Semantic for buildings

 

   
     
Land Vehicle 2008
Die Black-Box für Landfahrzeuge dokumentiert alle Geschehnisse in- nerhalb und in unmittelbarer Umgebung ausserhalb eines Vehikels während es steht oder sich bewegt. Das System nutzt dazu die Vi- deokameras im Front- und Heckbereich sowie alle Sensoren eines Fahrzeuges als Datenquellen und sichert durch Hochleistungsalgo- rithmen die Daten so, dass sie etwa vor Gericht akzeptiert werden müssen. Hierdurch muss man sich nicht mehr von assozialen Elemen- ten der Gesellschaft, inkompetenten Sachverständigen oder arro- ganten RichterInnen in die Irre leiten und das eigene Recht verwei- gern lassen, indem mit einem vollen Paket an unverfälschten Daten die wahren Ereignisse einer Situation nachgewiesen werden. Mit die- sem System bekommt man sein Strassenverkehrsrecht. Aber auch für die meisten Behörden birgt unsere Lösung immense Vorteile, wie zum Beispiel die Möglichkeit eine totale Verkehrsüberwachung zu im- plementieren. Bei solch einem Konzept sind Fahrzeugdiebstähle und ungeahndete Verkehrsdelikte praktisch unmöglich, da unter anderem das Tempo nicht überschreitbar ist oder ein behindernd geparktes Fahrzeug selbstständig den Abschleppwagen ruft und anschliessend seinem Halter den Bussgeldbescheid als auch die Rechnung für das Abschleppen und Verwahren schickt. Und Banken und Versicherun- gen werden unsere Black-Box lieben, da sie zu ausserordentlich ho- hen Kostenersparnissen führt.
The black box for surface vehicles documents all incidents inside and in the immediate proximity outside of a vehicle while it's standing or moving. For this the system uses the video cameras at the front and rear as well as all sensors of a vehicle as data sources, and applies high-performance algorithms to secure the data in such a way, that they have to be accepted at the courts, for instance. In this way, you haven't to be fooled and let deny the own rights anymore by antisocial elements of the community, incompetent expert witnesses or arrogant judges, by proving with a full pack of undistorted data the true events of a situation. With this system a person gets her/ his road traffic right. But also for the most of the public authorities our solution carries immense advantages, like the possibility to imple- ment a total traffic control, for example. With such a concept motor vehicle thefts and unavenged traffic offenses are practically impos- sible, because among other things speeding is not possible or an ob- structively parked vehicle calls autonomously the tow truck and af- ter that sends to the vehicle owner the penalty notice as well as the bill for towing and safekeeping. And banks and insurances will love our black box, because it leads to exceptionally high sav- ings of costs.

 

   
Personal Air Vehicle (PAV) 18.March.2010
Die Black-Box für Fluggeräte dokumentiert alle Geschehnisse inner- halb und in unmittelbarer Umgebung ausserhalb eines Vehikels wäh- rend es steht oder sich bewegt. Das System nutzt dazu Videokame- ras und alle Sensoren eines Fluggerätes sowie Hochleistungsalgo- rithmen um die Daten so zu sichern, dass sie etwa von behördlichen Stellen akzeptiert werden müssen. Aber auch die anderen Möglich- keiten unserer Lösung sind für die meisten Behörden äusserst inte- ressant, wie zum Beispiel auch kleine Fluggeräte in eine allumfassen- de Luftraumüberwachung einzubeziehen.
The black box for personal air vehicles documents all incidents inside and in the immediate proximity outside of a vehicle while it is stand- ing or moving. The system uses video cameras and all the sensors of a vehicle as well as high-performance algorithms to secure the data in such a way, that they have to be accepted by official offices for instance. But also the other possibilities of our solution are extremely interesting for the most of public authorities, like for example to in- volve small aerial vehicles into a comprehensive air traffic control as well.

 

   
Water Vehicle 18.March.2010
Die Black-Box für Wasserfahrzeuge dokumentiert alle Geschehnisse innerhalb und in unmittelbarer Umgebung ausserhalb eines Vehikels während es steht oder sich bewegt. Das System nutzt dazu Video- kameras und alle Sensoren eines Wasserfahrzeuges sowie Hochleis- tungsalgorithmen um die Daten so zu sichern, dass sie etwa von be- hördlichen Stellen akzeptiert werden müssen. Auch andere Möglich- keiten unserer Lösung sind für die meisten Behörden äusserst inte- ressant, wie zum Beispiel die gesamte Überwachung des Seeraumes zu gewährleisten.
The black box for water crafts documents all incidents inside and in the immediate proximity outside of a vehicle while it is standing or moving. The system uses video cameras and all the sensors of a vehicle as well as high-performance algorithms to secure the data in such a way, that they have to be accepted by official offices, for instance. Also for the most of public authorities our solution carries further immense advantages, like to ensure the whole control of the offing, for example.

 

   
Building 18.March.2010
Die Black-Box für Gebäude dokumentiert alle Geschehnisse die sich in- und ausserhalb eines Gebäudes ereignen. Das System nutzt Vi- deokameras und alle Sensoren eines Gebäudes sowie Hochleistungs- algorithmen um die Daten so zu sichern, dass sie etwa von behörd- lichen Stellen akzeptiert werden müssen. Aber auch weitere Möglich- keiten unserer Lösung sind für die meisten Behörden äusserst interessant. Genauso wie die anderen Blackbox-Typ werden Banken und Versicherungen auch diese Black-Box lieben.
The black box for buildings documents all incidents that happen in- and outside of a building. The system uses video cameras and all the sensors of a building as well as high-performance algorithms to sec- ure the data in such a way, that they have to be accepted by offi- cial offices, for example. But also further possibilities of our solution are immensely interesting for the most of public authorities. Exactly like the other types of black box, this black box will be loved by banks and insurances as well.

 

   
Votography™ 18.March.2010
Die Fotografie ist durch das Aufnehmen von einem einzelnen Stand- bild nach dem anderen charakterisiert, das auch in dem Serienfoto- grafiemodus getan werden kann, der schnell eine Serie von einzelnen Fotos aufnimmt, während die Videografie und die Kinematografie Bewegtbilder als eine Sequenz aufeinanderfolgender Bilder für eine begrenzte Zeitdauer aufnehmen, die von der Größe des Speicherme- diums abhängt, charakterisiert werden. Beide Handlungen werden durch Drücken und gedrückt Halten des Knopfes gestartet. In jüng- ster Zeit wenden moderne Fotoapparate direkt den Serienfotografie- modus an, während der Auslöseknopf gedrückt wird. Mit der Film-/ Votografie wird nun der andere Weg genommen, sodass ein Fotoap- parat eine Film- oder Videokamera ist, die die ganze Zeit, wie eine Überwachungskamera oder eine Black-Box, zu einer bestimmten Ziet oder in einer bestimmten Situation einen Film/ein Video mit einer individuell einstellbaren Länge aufnimmt, die durch die Größe des Speichermediums begrenzt ist. Mit dem Auslöseknopf wird nur die Zeit oder das Zeitfenster markiert indem ein Einzelbild oder eine Bilderserie aufgenommen wurde, das/die von Interesse ist. Für die Realisierung könnte eine Digitalkamera ein externes oder internes digitales Kamerasystem sein, das sogar gar kein Objektiv besitzt, und idealerweise ein protokollstrukturiertes Dateisystem und außerdem einen Sensor verwenden, sodass als eine Benutzeroption, das Auf- nehmen nur dann getan wird, wenn zum Beispiel das Gerät in der Hand gehalten wird.
The photography is characterized by taking one single still photo after the other in synchronicity, that can also be done in the burst/ continuous (high) speed shooting mode, which takes quickly a series of single photographs, while the videography and the cinematogra- phy are characterized by capturing moving images as a sequence of consecutive still images for a limited length of time that depends on the size of the storage media. Both actings are started by pressing or holding down the shutter/release button. In recent times, modern photo cameras use the burst mode directly, while pressing the shut- ter release button. With the movie-/votography the other way is ta- ken now, so that a photo camera is a movie or video camera, which records all the time, like a surveillance camera or a black box, at a specified time, or in a specified situation a movie/video for an indivi- dually adjusted time period, that is limited by the size of the storage media. With the shutter release button only the time or the time frame is marked when a single image or a series of images has been captured that is of interest. For the realization a digital camera could be an external or an internal digital camera system that even has no lens at all, and ideally use a log-structured file system, and additionally a sensor, so that as an user option for saving energy the recording is done only, when the camera is hold in the hand for example.

 

   
     
21st Century Passport™/One ID™ 2008
Der Personalausweis für das frühe 21. Jahrhundert besteht aus einem Gerät das die Form eines Stifts/Sticks oder einer Chipkarte hat als auch einen Mikroprozessor, einen Flash-Speicher als digitalen Spei- cherchip, einen Universal Serial Bus (USB)-Anschluss und integrierte Funktionen zur biometrischen Erkennung von körperlichen Eigenarten seiner Besitzerin/seines Besitzers, wie zum Beispiel einen Abtaster für Fingerabdrücke, besitzt. Da die verwendeten eingebetteten Systeme unseren Betriebssystemmikrokern OntoL4 nutzen und außerdem ne- ben der optionalen Möglichkeit des berührungslosen Lesens durch die Nahfeldkommunikationstechnologie auch ein direkter mechanischer Kontakt zwischen dem Datenträger und einem Datenlesegerät herge- stellt werden kann, wird ein extrem hoher und vorher durch andere Systeme nicht erreichter Grad an Sicherheit gegen Manipulation und illegale Nutzung sowie erhöhtem Datenschutz gewährleistet. Außer- dem bietet unsere Lösung bekannte erweiterte Funktionen wie etwa der integrierte internetfähige Identitätsnachweis und die Speiche- rung einer elektronischen Signatur als rechtsgültige digitale Version der Unterschrift der Besitzerin/des Besitzers, sodass zum Beispiel der Datenaustausch zwischen Bürgern, Behörden und Firmen unterstützt wird und auch unsere Lösung für die rechtsgültige E-Post genutzt werden kann. Des Weiteren ist zum Beispiel die Eingabe einer Persön- lichen IdentifikationsNummer (PIN) bei der Nutzung von Zusatzfunk- tionen nicht nötig, weil sie durch den weitaus sicheren Fingerabdruck ersetzt wird. Aber auch weitere Funktionen, wie sie durch bisherige Systeme nicht zur Verfügung gestellt werden können, sind auf diese Weise realisierbar. So ist die Möglichkeit der äußerst kostengünstigen Integration mit anderen Systemen der Gesetzesvollstreckung, Feuer- bekämpfung und Rettung, genauso wie von gewerblichen und vielen anderen Bereichen ein interessantes Beispiel, da oft ein Gerät mit USB-Anschluss vorhanden ist und somit ein zusätzliches Datenlese- gerät zu einem Preis von ungefähr 100 bis 150 Euro im Gegensatz zu anderen Lösungen nicht benötigt wird. Ein Beispiel für diese einfache Integration sind Autoradios die bereits eine USB-Buchse besitzen und somit nur deren Firmware durch einen leichten Austausch ersetzt oder durch eine Aktualisierung ergänzt werden muss. Noch besser erkennbar sind die Vorteile wenn man sie mit den Diensten der Poli- zei, Feuerwehr und Rettung betrachtet, da hier bei den anderen Lö- sungen überall zusätzliche Datenlesegeräte, etwa in einem Einsatz- fahrzeug als auch auf der Dienststelle, von Nöten sind.
The identity card for the early 21st Century consists of a device that has the shape of a flash drive or a chip card, and also features a microprocessor, a flash memory as a digital memory chip, an Uni- versal Serial Bus (USB) port, built-in features for the biometric ident- ification of physical characteristics of its owner, such as a scanner for fingerprints. Due to the application of our operating system mic- rokernel OntoL4 with the used embedded systems and also the opt- ional possibility of non-contact reading by the near-field communic- ation technology besides a direct mechanical contact between the disk and a data reader, an extremely high and previously by other systems not achieved level of security against tampering and illegal use, as well as increased data security can be ensured. In addition, our solution offers advanced features such as the integrated inter- net-enabled proof of identity and the retention of an electronic sign- ature as a legally valid digital version of the signature of the owner, so that for example the data exchange between citizens, govern- ment agencies and companies is supported, and also our solution of the legally valid e-mail can be used. Furthermore, the entering of a Personal Identification Number (PIN) is not necessary for the use of additional functions, for example, because it is replaced by the far more secure fingerprint. But also other functions are realizable in this way, which can not be made available by existing systems. Thus, the possibility of the extremely low-cost integration with other syst- ems of the law enforcement, fire fighting and rescue, as well as co- mmercial and many other areas is an interesting example, as often a device with a USB port is available and thus an additional data read- er having a price of about 100 to 150 Euros is not needed in cont- rast to other solutions. A simple example of this integration are car radios that already have an USB socket and so only their firmware must be replaced by an easy exchange or supplemented by an up- date. The benefits are even better seen when viewed with the ser- vices of police, fire fighting and rescue, because here additional data readers are needed with other solutions everywhere, as in an emerg- ency vehicle and on the department.

 

   
21st Century Health Care Card 2008
Die Gesundheitskarte für das frühe 21. Jahrhundert besteht aus ei- nem Gerät das die Form eines Stifts/Sticks oder einer Chipkarte hat als auch einen Mikroprozessor, einen Flash-Speicher als digitalen Speicherchip, einen Universal Serial Bus (USB)-Anschluss und inte- grierte Funktionen zur biometrischen Erkennung von körperlichen Ei- genarten, wie zum Beispiel einen Abtaster für Fingerabdrücke, aber auch zur medizinischen Analyse von Krankheiten seiner Besitzerin/ seines Besitzers sowie weiteren Funktionen die einen direkten Bezug zu den entsprechenden Krankheiten durch Lab-on-Chip Elemente, wie wir sie bereits mit unserer Bod•E-Technologie entwickeln und etwa zur Bestimmung der Vitalwerte, Zuckerwerte usw. verwenden, besitzt. Durch die Nutzung von OntoL4 basierten eingebetteten Sys- temen als auch dem direkten Kontakt zwischen unserer Gesundheits- karte und einem Datenlesegerät kann ein extrem hoher und vorher nicht erreichter Grad an Sicherheit gegen Manipulation und illegale Nutzung sowie erhöhtem Datenschutz gewährleistet werden. Außer- dem bietet unsere Lösung erweiterte Funktionen wie sie durch bishe- rige Chipkarten nicht zur Verfügung gestellt werden. So können zum Beispiel dreidimensionale Modelle der Besitzerin/des Besitzers oder auch mindestens 50 sehr hochauflösende Röntgenaufnahmen abge- speichert werden.
The health card for the early 21st Centuryconsists of a device that has the shape of a flash drive or a chip card, and also features a microprocessor, a flash memory as a digital memory chip, an Univers- al Serial Bus (USB) port, built-in features for the biometric identific- ation of physical characteristics of its owner, such as a scanner for fingerprints, but also for the medical analysis of diseases of its own- er as well as other features that relate directly to the relevant dis- ease by lab-on-chip elements, as they are already being developed with our Bod•E technology and used for the determination of vital signs, glucose levels, etc. by us. By using OntoL4 based embedded systems and also the direct contact between our health care card and a data card reader, an extremely high and previously not rea- ched level of security against tampering and illegal use, as well as increased data protection can be ensured. In addition, our solution offers advanced features that are not provided by previous smart cards. Thus, three-dimensional models of the owner or at least 50 very high-resolution X-ray images can be stored, for example.

 

   
21st Century Cash Card/Wallet 2008
Die Nutzung von körperlichen Eigenarten seiner Besitzerin/seines Be- sitzers, wie zum Beispiel dem Fingerabdruck, für die Quittierung von zu zahlenden Beträgen ist schon in der Vergangenheit realisiert wor- den. Der Unterschied zu solchen Systemen und unserer Geldkarte ist, dass die biometrischen Abtastungsvorrichtungen in der portablen Geldkarte integriert und nicht an/in einem stationären Gerät instal- liert sind. Neben der auf diese Weise gesteigerten Sicherheit und er- höhten Flexibilität ergeben sich zusätzlich neue Anwendungsmöglich- keiten. Des Weiteren ist zum Beispiel die Eingabe einer Persönlichen IdentifikationsNummer (PIN) bei der Nutzung von Zusatzfunktionen nicht nötig, da sie durch den weitaus sicheren Fingerabdruck ersetzt werden kann. Die Geldkarte des 21sten Jahrhunderts kann auch ge- meinsam mit unserer Cell Cash Card oder/und unserer E-Papierkarte genutzt werden.
The use of physical characteristics of its owner, such as the finger- print, for the acknowledgement of amounts to be paid has already been realized in the past. The difference between such systems and our cash card is that the biometric scanning devices are integrated in the portable cash card and not installed on/in a stationary device. In addition to the thus increased security and increased flexibility, new applications are emerging. Furthermore, for example entering a Personal Identification Number (PIN) is not necessary for the use of additional functions, because it can be replaced by the much more secure fingerprint. The 21st Century Cash Card can also be used in conjunction with our Cell Cash Card or/and our E-paper Card.

 

   
Cell Cash Card™ 2.June.2008
Die Cell Cash Card ist eine Chipkarte/SmartCard die Einwegmobiltele- fon und Plastikgeldkarte/Geldautomatenkarte/Bankkarte/Kundenkar- te vereint. Auf der einen Seite ermöglicht hierdurch das System im Zusammenspiel mit einem mobilen Endgerät einen zuvor nicht er- reichten Schutz gegen den Diebstahl einer Geldkarte oder/und der zugehörigen Persönlichen IdentifikationsNummer (PIN), wodurch alle heute bekannten Arten des Missbrauchs eliminiert werden, aber auf der anderen Seite hat man mit der Top-Variante sogar auch ein ein- faches Mobiltelefon zur Verfügung. Die Cell Cash Card ist in verschie- dene Versionen, wie etwa mit Bluetooth®-, RF- und/oder RFID- Funktionalität oder/und auch als E-Papierkarte, erhätlich und kann sogar mit der Technologie unserer Geldkarte des 21sten Jahrhunderts integriert werden.
The Cell Cash Card is a chip card/smart card that unites a dispos- able/One-way cell phone with a cash card/ATM card/bank card/debit card. In this way, on one hand the system enables in the interplay with a mobile device a before not reached protection against the theft of a plastic card or/and the associated Personal Identification Number (PIN), whereby all actually known kinds of misuse are elimin- ated, but on the other hand a simple mobile phone is even at one's disposal with the top-version, as well. The Cell Cash Card is available in different versions, like example given with Bluetooth®-, RF-, and/ or RFID-functionality, or/and also as E-paper Card, and even can be integrated with our 21st Century Cash Card/Wallet technology.

 

   
MultiGPS™/MultiGNS™ 2007 and 28.June.2012
Unser Multi-Globales PositionierungsSystem (MultiGPS)/Multi-Globales NavigationsSystem (MultiGNS) ist eine Technologie, die die geliefer- ten Daten von zwei oder mehreren satellitenbasierten Navigations-/ Positionierungssystemen, wie dem U.S.Amerikanischen GPS, dem eu- ropäischen Galileo System oder/und dem russischen Glonass System, kombiniert. Hierdurch wird nicht nur die Quantität, sondern auch die Qualität der Navigations/Positionsbestimmung drastisch verbessert, da die Steigerung der Präzession, die Verifizierung und Validierung der verschiedenen Datenquellen und ihrer gelieferten Daten sowie die Kompensierung von Verbindungsstörung und fehlerhaften oder sogar gänzlich fehlenden Daten ermöglicht werden. Als eine weitere Quali- tätsverbesserung und -garantie kann unser MultiGPS/MultiGNS auch ein oder mehrere satellitenbasierte Systeme mit einem Navigations- system kombinieren, das auf dem Empfang von kabellosen Netzwerk-, Mobiltelefon-, Radio- und Fernsehsignalen basiert, die im Vergleich zu Satelittensignalen weitaus stärker sind und somit wesentlich weniger gestört werden können sowie auch in Umgebungen empfangbar sind in denen Satellitensignale nur schlecht oder gar nicht empfangbar sind. Durch die Integration einer inertialen Messeinheit==Inertial-Measurement-Unit (IMU, siehe auch MobileKinetic) kann auch ohne Verbindung zu einem externen System das MultiGPS/MultiGNS wei- terhin für Positionierungs- und Navigationsaufgaben genutzt werden und es läßt sich zudem die Qualität von unserem Erweiterten-GPS (E-GPS) verbessern. Eine weitere herausragend Eigenschaft ist die Möglichkeit das MultiGPS/MultiGNS mit unserem Strahlenfeldsensor zu integrieren und hierdurch in Echtzeit ein 3-dimensionales Modell der aktuell empfangbaren Signale sowie ihrer Stärke, Richtung und Quelle zu erhalten, sodass unsere Navigationssysteme ihre Signale sehen können und dadurch in der Lage sind etwa kontinuierlich Routen mit der höchsten Verbindungsqualität zu planen oder/und Funklöcher proaktiv zu umgehen. Die Technologie umfasst entsprechende Hard- und Software die sich problemlos mit allen Typen von Geräten, ins- besondere mobilen Endgeräten, und Betriebssystemen nutzen lässt.
Our Multi Global Positioning System (MultiGPS)/Multi Global Navigat- ion System (MultiGNS) is a technology that combines the delivered data of two or more satellite-based navigation/positioning systems, like the American GPS, the European Galileo system or/and the Russ- ian Glonass system. In this way, not only the quantity but also the quality of navigation/determination of the position is improved drast- ically, because the increasing of the precission, the verfication and validation of the different data sources and their delivered data, as well as the compensation of connection failures and corrupted or even completely missing data are enabled. As an additional quality enhancement and guarantee, our MultiGPS/MultiGNS can also com- bine one or more satellite-based systems with a navigation system that is based on the reception of wireless network, mobile phone, radio, and TV signals, which in comparison to satellite signals are a lot more powerful, and in this way can be less disturbed and also received in environments in which satellite signals are poorly or not receivable at all. With the integration of an Inertial Measurement Unit (IMU, see also MobileKinetic) the MultiGPS/MultiGNS can still be used for positioning and navigation tasks even without a connection to an external system, and additionally the quality of our Enhanc- ed-GPS (E-GPS) can be improved. A further outstanding feature is the possibility to integrate the MultiGPS/MultiGNS with our Ray-field Sensor and to get in real-time a 3-dimensional model of the actual receivable signals as well as their strength, direction, and origin through this, so that our navigation systems can see their signals, and therefore are able for example to continuously plan a route with the highest guarantee of connectivity or/and to circumvent dead zones proactively. The technology comprises corresponding hard- and software that can be used with all device types, especially mobile devices, and operating systems.

 

   
GPSCore™/GNSCore™ 29.July.2013
Der GPSkern ist ein Gerätekern der die Eigenschaften unseres Mul- tiGPS besitzt und zusätlich grundlegende Funktionen von Naviga- tions- und Positionierungsgeräten bietet. Er wird mit unseren ver- schiedenen Mobilengerätesystemen SmartWatch, SmartEyewear, SmartEarwear und SmartWear genutzt, aber ist auch ein Teil unseres aktiven Positionierungssystem für Vehikel aller Arten. Zudem kann er auch anderen smarten mobilen Geräten auch geografische Daten und Funktionen eines Geografischen InformationsSystems (GIS) bieten und als ein eigenständiges Navigationsgerät genutzt werden, das GPS Scout genannt wird und als Option einen Bildschirm besitzt.
The GPSCore is a device core that features our MultiGPS and offers basic functions of navigation and positioning devices additionally. It is utilized with our different mobile device systems SmartWatch, SmartEyewear, SmartEarwear, and SmartWear, but is also a part of our Active Positioning system for vehicles of all kinds. Moreover, it can also offer geographical data and functions of a Geographic In- formation System (GIS) to other smart mobile devices and be util- ized as a stand-alone navigation device, which is called GPS Scout and features a display as option.

 

   
Panoramic/Panorama LIDAR™
Die panoramische/Panorama-LIDAR-Technologie funktioniert wie eine Kamera mit einem panoramischen Objektiv oder Spiegel, aber für das System der Lichtortung und -abstandsmessung==Light Detection And Ranging (LIDAR), sodass kein rotierender Laser mehr für die Ab- tastung der Umgebung benötigt wird und die Abtastungsfrequenz der Frequenz des Lasers und nicht der Rotation des Lidars entspricht. Die Technologie kann mit Techniken, wie der Punktwolke, Kurvenwol- ke und Flächenwolke, adaptiven Punktwolke, adaptiven Kurvenwolke und adaptiven Flächenwolke sowie den Wavicle- und den Wellenfeld- rechentechnologien verknüpft werden.
The Panoramic/Panorama LIDAR technology functions like a camera with a panoramic lens or mirror, but for the Light Detection And Ranging (LIDAR) system, so that no rotating laser is needed anymore for scanning the environment in one step. The technology can be connected with techniques, like the Point Cloud, Curve Cloud and Plane Cloud, Adapt- ive Point Cloud, Adaptive Curve Cloud and Ad- aptive Plane Cloud, as well as the Wavicle and the wave-field comp- uting technologies.

 

   
MultiLIDAR™
Die MultiLIDAR-Technologie nutzt mehr als ein System der Lichtortung und -abstandsmessung==Light Detection And Ranging (LIDAR) mit rotierenden Laser oder ein panoramisches/Panorama-LIDAR-System ohne rotierenden Laser, sodass die Umgebung in einem Schritt und mit der Frequenz des Lasers und nicht der Rotation des Lidars abgetastet werden kann. Wie das panoramische/Panorama-LIDAR-System kann das MultiLIDAR-System mit Techniken, wie der Punktwolke, Kurvenwolke und Flächenwolke, adaptiven Punktwolke, adaptiven Kurvenwolke und adaptiven Flächenwolke sowie den Wavicle- und den Wellenfeldrechentechnologien verknüpft werden.
The MultiLIDAR technology uses more than one Light Detection And Ranging (LIDAR) system with rotating laser or one Panoramic/Panorama LIDAR system without rotating laser, so that the enviroment can be scanned in one step. Like the Panoramic/Panorama LIDAR system the MultiLIDAR system can be connected with techniques, like the Point Cloud, Curve Cloud, Adaptive Point Cloud, Adaptive Curve Cloud, and technologies, like Wavicle and wave-field computing, to name some examples.

 

   
Panoramic/Panorama EMDAR™
Das panoramische/Panorama-EMDAR funktioniert wie das panoramische/Panorama-LIDAR, aber mit einem Maser. Auch sind hybride Versionen mit einem Laser möglich.
The Panoramic EMDAR works like the Panoramic LIDAR but with a maser. Also, hybrid versions with a laser are possible.

 

   
MultiEMDAR™
Das MultiEMDAR funktioniert wie das MultiLIDAR, aber mit einem Maser. Auch sind hybride Versionen mit einem Laser möglich.
The MultiEMDAR works like the MultiLIDAR but with a maser and without or with laser.

 

   
     
ST-RAM 16.June.2011
Der ST-RAM ist ein Konzept das auf der Kombination von einem be- schreibbaren flüchtig speicherenden Random-Access-Memory (RAM)- Baustein und einem Kondensator beruht. Entweder wird ein Adapter, der einen Kondensator besitzt, zwischen einer Hauptplatine und ei- nem Speichermodul plaziert, der Speicherbaustein einfach mit einem Kondensator verbunden oder aber ein RAM-Chip direkt mit einem Chip-Kondensator integriert. Der Kondensator kann auch ein Element der integrierten Schaltung eines RAM-Chips sein. Während ein Com- putersystem läuft wird der Kondensator mit Strom aufgeladen, so- dass nach dem Ausschalten eines Computersystems der Speicher- baustein weiterhin mit benötigter elektrischer Energie aus dem Kon- densator versorgt wird und somit der Speicherinhalt nicht verloren geht. Ein Computersystem muss hierdurch in den meisten normalen Anwendungsfällen nach dem Wiederanschalten nicht mehr hochge- fahren werden.
The ST-RAM is a concept based on the combination of a writable volatile Random-Access Memory (RAM) chip and a capacitor. Either an adapter, which has a capacitor, is placed between a motherboard and a memory module, the memory chip is simply connected with a capacitor, or a RAM chip is directly integrated with a chip capacitor. Also, the capacitor could be an element that is a part of the inte- grated circuit of a RAM chip. While a computer system is running, the capacitor is charged with electric power, so that after a comp- uting system is switched off the memory module will still be support- ed with needed power out of the capacitor, and in this way the content of the memory is not lost. In this way a computing system has not to be booted in most of the normal use cases after it is switched on again.

 

   
Hybrid Hibernation (HyHi) 18.May.2012
Hybride Hibernation==Ruhezustand (HyHi) is eine Funktionalität, die nicht den Inhalt eines beschreibbaren flüchtig speicherenden Random-Access-Memory (RAM)-Bausteins zu einem nichtflüchtigen Datenspeicher kopiert, wie es mit Hibernation und der anderen Kombination des Schlafmodus und Hibernation genannt hybrider Schlaf getan wird. Eventuell ist es ausreichend das Energieversorgungshandhabungsprotokoll des Betriebssystems zu nutzen, wie das Advanced Configuration and Power Interface (ACPI)==Fortgeschrittene Konfigurations- und Energieversorgungsschnittstelle um zum Beispiel einen G1 S3.5 Zustand zu kreieren. Auf der Hardware-Seite basiert das Konzept selber entweder auf unserem ST-RAM oder einem überarbeiteten normalen (Schalt)Netzteil eines Computersystems durch erweitern mit einem Energiespeicher, wie z. B. einer Batterie oder einem Kondensator und einer integrierten Schaltsteuerungseinheit, wie es auch bei einer Unterbrechungsfreie StromVersorgung (USV) gemacht wird, das auch die Möglichkeit bietet den vom ST-RAM verwendeten Kondensator wegzulassen. Außerdem hat es im Fall einer solchen USV-ähnlichen Eigenschaft des Netzteils eine Verbindung des Netzteils und entweder einem Adaper eines Computerdatenspeichers oder direkt einen RAM-Mikrochip oder einen anderen Datenspeicher, wie z. B. eine in einen Erweiterungsschlitz der Hautptplatine gesteckten Erweiterungskarte mit Speicherbausteinen, so dass ein Speicherchip permanent mit elektrischem Strom versorgt wird während ein Computersystem abgeschaltet ist oder sogar das Netzteil vom Stromnetz getrennt ist. Auf der Seite des Betriebssystems kann in geigneter Weise die Softwarefunktionen des Schlafmodus, Hibernation oder hybriden Schlafs verwendet werden.
Hybrid Hibernation (HyHi) is a functionality that does not copy the content of a writable volatile Random-Access Memory (RAM) to a non-volatile computer data storage, as it is the case with hibernat- ion and the other combination of the sleep mode and hibernation called hybrid sleep. Eventually, it would be enough to simply use a power management protocol of the operating system, like the Ad- vanced Configuration and Power Interface (ACPI) for creating for example a G1 S3.5 state. On the side of the hardware the concept itself is based either on our ST-RAM, or a re-engineered standard (switched-mode) Power Supply Unit (PSU) of a computer system by extending it with an energy storage, like e.g. a battery or a capacit- or, and a built-in switching control unit, as it is done with an Unint- erruptible Power Supply (UPS), that would also give the option to omit the capacitor used with the ST-RAM. Furthermore, in the case of such a UPS like feature of a PSU it has a connection between the PSU and either an adapter of a computer data storage, or directly a RAM microchip or another computer data storage, like e.g. an ex- pansion card with memory chip put into a slot on a motherboard, so that a memory chip is permanently supported with electric power while a computer system is switched off, or even the PSU is off-line. On the side of an operating system the software functions of the sleep mode, hibernation, or hybrid sleep can simply be used appropri- ately.

 

   
     
IPRFID™//IPNFC™ 200x
IPRIFD ist die Abkürzung für Internet Protocol Radio-frequency IDen- tification und bezeichnet die originale Kombination des IP mit RFID-/ NFC-Technologien sowie in weiteren Ausführungen mit intelligenten Multiagentensystemen durch die Anwendung unserer Ontologischen Systemarchitektur. Die Technologie wird von uns als Teil unserer An- strengungen und als ein grundlegendes Element in den Bereichen der Dinge mit Intelligenz, die denken, und dem Internetz der Dinge ge- nutzt und ist auch in unseren AutoSemantic-Paketen enthalten.
IPRIFD is the abbrevation for Internet Protocol Radio-Frequency ID- entification and referres the original combination of the IP with RFID technologies as well as in furhter variants with intelligent multiagent systems and by the application of our Ontologic System architect- ure. The technology is applied by us as part of our efforts and a foundational element in the areas of things with intelligence that think and the Internet of Things, and is also a part of our AutoSem- antic packages.

 

   
Full Wi-Fi™ 22.April.2008
Full Wi-Fi bedeutet, dass ein Gerät fähig ist beide grundlegenden Wi-Fi-Anwendungen zu bieten, die sind ein WLAN als ein Klient zu nutzen und Funktionalitäten von einem mobilen/WLAN-Hotspot/Zu- gangspunkt zu bieten, wie bei dem sogenannten Anbinden==Tether- ing. Hierdurch können sich Geräte ad-hoc und direkt per WLAN ver- binden und ein kabelloses Netzwerk aufbauen, das entweder eins der beiden ersten Geräte zum Hotspot für alle anderen Geräte bestimmt, die sich mit dem Netzwerk verbinden, oder ein Peer-to-Peer-Netz- werk ist, wie es mit z. B. Bluetooth getan wird. Zusätzlich können semantische Technologien für den Aufbau, die Dienstentdeckung und dem Management des Netzwerkes und den gefunden Diensten ge- nutzt werden.
Full Wi-Fi means that a device offers both basic Wi-Fi utilizations, which are to use a WLAN as a client and to offer functionalities of a mobile/WLAN hotspot/access point, like done with so-called tether- ing. In this way devices can connect ad hoc and directly by WLAN and build up a network that either declares one of the both first devices as the hotspot for all other devices that join the network, or is a Peer-to-Peer (P2P) network, as it is done with e.g. Bluetooth, but also use the network service discovery feature and found serv- ices. In addition, semantic technologies based on ontologies can be applied for the build up, the service discovery and the management of the network and the found services.

 

   
MultiWLAN™ 22.April.2008
MultiWLAN ist ein Rahmenwerk von Technologien, das mehrere Wire- less-Personal-Area-Network- (WPAN-) und Wireless-Local-Area-Net- work- (WLAN-)Technologien, wie zum Beispiel Bluetooth, ZigBee, Z-Wave und Wi-Fi, also auch unser Full Wi-Fi und Multiband-WLAN, zusammen und sogar gleichzeitig benutzt, falls notwendig. Zusätzlich können semantische Technologien für den Aufbau, die Dienstent- deckung und dem Management des Netzwerkes und den gefunden Diensten genutzt werden.
MultiWLAN is a framework of technologies that utilizes several Wire- less Personal Area Network (WPAN) and Wireless Local Area Network (WLAN) technologies, like for examplel Bluetooth, ZigBee, Z-Wave, and Wi-Fi, as well as our Full Wi-Fi and Multi-Band WLAN jointly and even simultaneously, if needed. In addition, semantic technologies based on ontologies can be applied for the build up, the service dis- covery and the management of the network and the found services.

 

   
Multi-Band Network™ 200x
Das Multibandnetzwerk nutzt verschiedene Übertragungstechniken und -technologien gleichzeitig indem die Daten entsprechend an der Quelle aufgeteilt, über die verschiedenen Känale transportiert und am Ziel wieder richtig zusammengesetzt werden.
The Multi-Band Network uses different transmission techniques and technologies simultaneously with the data being divided correspond- ingly at the source, transported over the different channels, and correctly aggregated at the destination.

 

   
Multi-Band WLAN™ 200x
Das Multiband-WLAN (MWLAN) wendet nicht nur die elektromagneti- sche Strahlung mit unterschiedlichen Frequenzen und Techniken, wie das Dualband, für die Datenübertragung an, sondern zudem Ultra- schall und falls möglich auch unsere kabellosen Energieübertragungs- systeme.
The Multi-Band WLAN (MWLAN) does not utilize electromagnetic rad- iation with different frequencies and techniques only, like the dual- band, but additionally ultrasonic wave for data transmission, and if possible also our wireless energy/power transmission systems.

 

   
XTbox™ - The eXTensible box 2001
Die erweiterbaren XTboxen sind optimierte Hardware-Architekturen für zum Beispiel digitale Gebäudeautomatisierung, Heimunterhalt- ungsanlagen, Spielekonsolen aber auch hochspezialisierte Rechner- systeme für die Datenspeicherung und -gewinnung. Als Betriebssys- tem wird selbstredend unser L4 und Linux® basiertes Hochtechnolo- giebetriebssystem OntoLinux verwendet, sodass auch die XTbox mit allen anderen stationären und mobilen Geräten von uns ein großes verteiltes Computersystem bilden kann, wie idealerweise mit unseren Bildanzeigen 2.0 und unseren Ontoskopen, und die BenutzerInnen eine multimodale multimedia Benutzerschnittstelle, inklusive Sprach- und (berührungsloser) Gesten- beziehungsweise Bewegungssteue- rung des Geräts und der Inhalte, sowie einen Proaktiven Intelligenten Persönlichen Assistenten (PIPA) zu ihrer Verfügung haben. Die XTbox kann mit unseren Fernsehertechnologien kombiniert oder integriert werden.
The eXtensible Tux boxes are optimized hardware architectures for building automation, digital home entertainment systems, gaming consols, but also highly specialized computer systems for the stor- age and mining of data. Naturally, as the operating system our L4 and Linux® based Hightech Operating System™ OntoLinux is used, so that also the XTbox can make up with all other stationary and mobile devices of us a large distributed computer system, like ideally with our Image Displays 2.0 and our Ontoscopes, and the user have a Multimodal Multimedia User Interface (M²UI), inclusive voice and (touchless) gesture respectively motion control of the device and the contents, and a Proactive Intelligent Personal Assistant (PIPA) at their disposal. The XTbox can be combined or integrated with our television technologies.

 

   
     
XTV™ 200x
Der erweiterbare Fernseher integriert den Fernseher mit unserer XTbox, die als ein System auf einem Chip oder ein System in einem Paket/Gehäuse gebaut wird und somit einfach durch neuere Hard- ware ausgetauscht werden kann. Das Konzept kann als eine spezielle Version kabellose Daten- und Stromübertragung besitzen und idealer- weise mit unseren anderen Fernsehern, Bildanzeigen 2.0 und weite- ren geeigneten Technologien von uns, wie z. B. unsere kabellose Fernsehinfrastruktur==Wireless TeleVision InfraStructure (WTV IS), kombiniert oder integriert werden.
The eXtensible TV integrates the television with our XTbox, which is built as a system on a chip or a system in a package and can be easily exchanged by newer hardware. The concept can also have wireless data and power transfer as a special version, and ideally be combined or integrated with our other televis- ions, Image Displays 2.0, and further suitable technologies of us, like the Wireless Tele- Vision InfraStructure (WTV IS).

 

   
Phone TV™ 28.March.2013
Der Telefonfernseher besitzt einen Anschluss, einen Einschub oder einen Bereich im Gehäuse, sodass ein Mobiltele-/Smartfon einfach angeschlossen werden kann. Das Konzept kann das Gerät auch mit Strom versorgen und als eine spezielle Version kabellose Daten- und Stromübertragung besitzen. Idealerweise kann es mit unserer XTbox kombiniert oder mit unserem XTV integriert werden.
The Phone TV has a port, a shelf, or an area on the housing, so that a mobile/smartphone can be easily attached to it. The concept can also support the device with power, and have wireless data and power transfer as a special version. Ideally, it can be combined with our XTbox or integrated with our XTV.

 

   
Game TV™ 28.March.2013
Der Spielfernseher ist ein Fernseher mit integrierter Spielkonsole. Die Spielkonsole ist als ein System auf einem Chip oder ein System in einem Paket/Gehäuse gebaut und kann einfach durch neuere Hard- ware ausgetauscht werden, genauso wie es mit allen anderen Sys- temkomponenten getan werden kann. Idealerweise kann der Spiel- fernseher auch mit unseren Bildanzeigen 2.0, unserer XTbox, unse- rem Telefonfernseher und allen unseren anderen Geräten kombiniert bezeihungsweise integriert werden, die z. B. mit OntoLix und Onto- Linux betrieben werden. Wie üblich.
The Game TV is a television with an integrated game console. The game console is built as a system on (a) chip or a system in (a) package and can be easily exchanged by newer hardware, as it can be done with all other system components as well. Ideally, the Game TV can also be combined respectively integrated with our Image Dis- plays 2.0, XTbox, our Phone TV, and all of our other devices power- ed by e.g. OntoLix and OntoLinux. As usual.

 

   
WTV IS 2002
WTV IS ist das Akronym für Wireless TeleVision InfraStructure und umfasst sämtliche notwendige Hardware und Software für das Senden und Empfangen von Fernsehkanälen auf mobilen Endgeräten, wie einem Mobiltelefon, ein Tablet- oder Pad-computer, oder sogar smarten Datenbrillen.
WTV IS is the acronym for Wireless TeleVision InfraStructure and comprises all needed hardware and software that enables the sending and receiving of television channels by mobile devices, like a cell phone, a tablet or pad computer, or even smart data glasses.

 

   
WTV 2005
WTV ist das Akronym für Wireless TeleVision.
WTV is the acronym for Wireless TeleVision.

 

   
     
 

 

   
Cool Chip 1.0 2001
Der kühle Chip==Cool Chip basiert auf üblicher Prozessortechnologie und unserer Innovation der Integration eines thermalen Protektions- und Energieüberbrückungssystems, das auf den Prinzipien des ther- moelektrischen Kühlers (Peltier-Effekt) und des thermoelektrischen Generators (Seebeck-Effekt) basiert, wie sie auf der einen Seite für die Kühlung von der Hauptrecheneinheit und anderen Komponenten eines Computersystems und auf der anderen Seite für die Abwärme- rückgewinnung in Fahrzeugen, unseren IR-Ray-Kollektor und anderen Anwendungen genutzt werden. Ein drittes Element ist unser intelli- genter Chipaufbau, sodass hierdurch als Endergebnis der Energiever- brauch und die Hitzeentwicklung deutlich reduziert werden.
The Cool Chip is based on common processor technology and our in- vention of the integration of a thermal protection and energy bypass system that is based on the principles of the thermoelectric cooler (Peltier effect) and the thermoelectric generator (Seebeck effect), as they are used for the cooling of the main processing unit and other components of a computer system on the one side, and on the other side for the waste heat recovery in vehicles, our IR-Ray Coll- ector, and other applications. A third element is the intelligent chip layout, so that as final result the power consumption and the heat generation are strikingly reduced in this way.

 

   
Cool Chip 2.0 24.April.2012
Unsere Cool Chip 2.0 ist eine Weiterentwicklung von unserem Cool Chip 1.0, die die Technologie einer resonanten Taktgebervernetzung integriert, die auf einer aus integrierten Spulen und dem Netz als Kondensator bestehenden Resonanzschaltung basiert. Zusätzlich zu den bereits angewendeten Technologien des thermoelektrischen Kühlers (Peltier-Effekt) und des thermoelektrischen Generators (See- beck-Effekt) können auch die Nebenprodukte des resonanten ther- moelektrischen Peltier-Elements und des resonanten thermoelektri- schen Seebeck-Elements für die weitere Integration genutzt werden. Höchstwahrscheinlich kann der Energiewiedergewinnungsfaktor des Cool Chip 1.0 verdoppelt werden, sodass als Gesamtergebnis eine Senkung der Taktverteilungsenergie von bis zu 40% bei Spitzenaus- lastung und zwischen 15% bis 20% bei durchschnittlicher Last für eine x86-basierte Chiparchitektur sowie bis zu 45% bis 55% bei Spit- zenauslastungen für eine ARM-basierte Chiparchitektur in Abhängig- keit des momentan laufenden Prozesses erzielbar ist.
Our Cool Chip 2.0 is a further development of our Cool Chip 1.0 that integrates the technology of the resonant clock meshing based on the resonant/tank circuit consisting of integrated coils and the mesh as the capacitor. In addition to the already applied thermoelectric cooler (Peltier effect) and thermoelectric generator (Seebeck effect) technologies, the byproducts of the resonant Peltier element and the resonant Seebeck element can be used for the further integrat- ion. Most probably, the power recovery factor of the Cool Chip 1.0 can be doubled, so that as the overall result a drop of clock distrib- ution power by up to 40% at peak load and between 15% to 20% on average load for an x86-based chip architecture, and also up to 45% to 55% at peak load for an ARM-based chip architecture depending on the currently running process is achievable.

 

   
Cool Chip 3.0 24.April.2012
Unsere Cool Chip 3.0 Technologie bezeichnet die Integration unserer Cool Chip 1.0 und Cool Chip 2.0 Technologien mit Chips die auf 3D- Transistoren oder/und 3D-Memristoren basieren.
Our Cool Chip 3.0 technology denotes the Cool Chip 1.0 and the Cool Chip 2.0 technologies with chips based on 3D transistors or/and 3D memristors.

 

   
Tartan™ 12.September.2012
Tartan entwickelt Quer/-Kreuzschienenregisterprozessoren==Cross- bar-Latch-Chips. Da die Verdrahtung auch Gewebe genannt wird, das wie das schottische Tartan aussehende Muster besitzt, erklärt sich die Herkunft des Namens und seine Bedeutung von selbst. Diese Analogie von Clan- und Chipfunktion führt zudem auch direkt zu einer visuellen Sprache von Elektronikbauteilen, in diesem Falle Chips. Beispiele für die Ergebnisse sind unsere Speicherkerne==Memcores und Anwendungen für das neuromorphe Rechnen, dass eins unserer sehr speziellen Kompetenzfelder seit dem Jahr 1996 ist.
Tartan develops crossbar latch chips. Because the wiring is also called fabric, which has patterns looking like the scotish tartan, the origin of the name and its meaning is explained by itself. Morevoer, this analogy of clan and chip function leads directly as well to a visual language of electronics components, in this case chips. Examples for the results are our memcores and applications for the neuromorphic computing, which is one of our very special fields of competence since the year 1996.

 

   
Memcore™ 28.August.2012
Der Speicherkern==Memcore ist ein Kern für Mehrkernprozessoren, der teilweise oder ganz aus Memristoren aufgebaut wird. Demgemäß besteht ein Mehrspeicherkernprozessor aus Kernen, die entweder alle nur Memristoren verwenden, hybriden Kernen, die Transistoren und Memristoren verwenden oder Kombinationen von transistorbasierten, memristorbasierten und hybriden Kernen. Memcores können mit un- seren Tartan-Ansatz auf der Basis von zum Beispiel unseren 3D- Memristoren konstruiert werden.
The memcore is a core for multicore processors that is partially or completely built up out of memristors. Correspondingly, a multimem- core processor consists either out of cores, which all use memristors only, hybride cores, which use transistors and memristors, or comb- inations of transistor based, memristor based, and hybrid cores. Memcores can by constructed with our Tartan approach on the basis of for example our 3D memristors.

 

   
3D Memristor™ 28.August.2012
Der 3D-Memristor ist ein Memristor, also ein auf dem elektrischen Widerstand basierender Speicher, der wie ein 3D-Transistor in 3 Dimensionen hergestellt wird.
The 3D memristor is a memory resistor (short memristor), which is made in 3 dimensions like a 3D transistor.

 

   
Tridirectional Chip™ 18.August.2012
Der tridirektionale Chip ist ein integrierter Chip, der auf seinen 2 Sei- ten entweder einen Sensor und zwei Aktuatoren oder Strahler/Emit- ter oder zwei Sensoren und einen Aktuator oder Strahler/Emitter haben kann, und wie ein CCD- oder ein CMOS-Chip hergestellt wird.
The tridirectional chip is an integrated chip that can have either one sensor and two actuators or radiators/emitters, or two sensors and one actuator or radiator/emitter on its two sides, and is constructed like a CCD or a CMOS chip.

 

   
Tetradirectional Chip™ 18.August.2012
Der tetradirektionale Chip ist ein integrierter Chip, der auf jeder sei- ner 2 Seiten einen Sensor und einen Aktuator oder Strahler/Emitter haben kann, und wie ein CCD- oder ein CMOS-Chip hergestellt wird.
The tetradirectional chip is an integrated chip that can have on each of its two sides one sensor and one actuator or radiator/emitt- er, and is constructed like a CCD or a CMOS.

 

   
Graphene Light-Emitting Diode™ (GLED™) 16.April.2013 and 16.October.2013
Die Graphenbasierte Licht-emittierende Diode (GLED) nutzt Graphen für die Herstellung von LEDs. Zu den Vorteilen zählen die Möglichkeit der weiteren Verkleinerung von LEDs, wie Laserdioden, die effizien- tere und höhere Leistungsabgabe, die erhöhte Schaltgeschwindig- keit, die Selbstheilung und damit verlängerte Lebensdauer sowie die nahtlose Integration mit weiteren graphenbasierten Bauteilen, wie etwa graphenbasierte CCDs, graphenbasierte Anzeigen als auch komplementären Graphenoxid Halbleiter.
The Graphene-based Light-Emitting Diode (GLED) uses Graphene for the making of LEDs. To the advantages belong the possibility of the further decrease of LEDs in size, like laser diodes, the more efficient and higher output, the increased switching speed, the self-healing and with this the extended lifetime, and also the seamless integrat- ion with further graphene-based components, like e.g. graphene- based CCDs, graphene-based displays, as well as Complementary Graphene Oxid Semiconductors (CGOSs).

 

   
Graphene Core™ and Chip™/Processor 23.March.2013
Die Begriffe Graphenkern und Graphen-Chip bezeichnen Prozessorker- ne und Chips basierend auf Graphen.
The label Graphene Core and Graphene Chip denote processor cores and chips based on graphene.

 

   
Graphene Memory™ 23.March.2013
Der Begriff Graphene Memory bezeichnet Arbeitsspeicher basierend auf Graphen.
The label Graphene Memory denotes working/random access memory based on graphene.

 

   
Graphene Charge-Coupled Device™ (GCCD™) 12.April.2013
Die ladungsgekoppelte Graphenschaltung==Graphene Charge-Coupled Device (GCCD) ist eine CCD auf der Basis von Graphen.
The Graphene Charge-Coupled Device (GCCD) is a CCD on the basis of graphene.

 

   
Complementary Graphene Oxide Semiconductor™ (CGOS) 23.March.2013
Der komplementäre Graphenoxidhalbleiter resultiert aus der Ersetzung von Metalloxid eines komplementären Metalloxidhalbleiters durch Gra- phenoxid.
The Complementary Graphene Oxide Semiconductor™ (CGOS) results from the replacement of metal oxide of a Complementary Metal Oxide Semiconductor™ (CMOS) with graphene oxide.

 

   
CGOS GCCD 12.April.2013
Die komplementäre Graphenoxidhalbleiter ladungsgekoppelte Gra- phenschaltung integriert unseren komplementären Graphenoxidhalb- leiter und unsere ladungsgekoppelte Graphenschaltung.
The Complementary Graphene Oxide Semiconductor Graphene Char- ge-Coupled Device (CGOS GCCD) integrates our Complementary Graphene Oxide Semiconductor (CGOS) and our Graphene Charge-Coupled Device (GCCD).

 

   
Super Charge-Coupled Device™ (SCCD™) 18.August.2012
Die super ladungsgekoppelte Schaltung==Super Charge-Coupled Device (SCCD) funktioniert in beide Richtungen, wie eine CCD oder unsere Lichtfeld- und Strahlenfeldsensoren in die eine Richtung und ein Pixel-, Voxel- oder Toxelschirmelement in die andere Richtung.
The Super Charge-Coupled Device (SCCD) works in both directions, like a CCD or our light-field and ray-field sensors in the one direction, and a pixel, voxel, or toxel screen element in the other direction.

 

   
Super Complementary Metal Oxide Semiconductor™ (SCMOS) 26.March.2013
Der super komplementäre Metalloxidhalbleiter funktioniert in beide Richtungen, wie ein CMOS-Bildrechner oder unsere Lichtfeld- und Strahlenfeldsensoren in die eine Richtung und ein Pixel-, Voxel- oder Toxelschirmelement in die andere Richtung.
The Super Complementary Metal Oxide Semiconductor (SCMOS) works in both directions, like a CMOS imager or our light-field and ray-field sensors in the one direction, and a pixel, voxel, or toxel screen element in the other direction.

 

   
Super CMOS CCD™ (SCMOSCCD™) 26.March.2013
Die super komplementäre Metalloxid-Halbleiter ladungsträgergekop- pelte Schaltung ist ein Hybrid, der entweder aus unserem Super Complementary Metal Oxide Semiconductor (SCMOS) und einer la- dungsträgergekoppelten Schaltung==Charge-Coupled Device (CCD) oder einem komplementären Metalloxid-Halbleiter==Complementary Metal Oxide Semiconductor (CMOS) und unserem Super Charge-Coupled Device (SCCD) besteht.
The Super Complementary Metal Oxide Semiconductor Charge-Coupled Device (SCMOSCCD) is a hybrid that either is made of our Super CMOS (SCMOS) and a Charge-Coupled Device (CCD), or a Complementary Metal Oxide Semiconductor (CMOS) and our Super Charge-Coupled Device (SCCD).

 

   
Super Graphene Charge-Coupled Device™ (SGCCD™) 13.April.2013
Die super ladungsgekoppelte Graphenschaltung==Super Graphene Charge-Coupled Device (SGCCD) funktioniert in beide Richtungen, wie eine CCD oder unsere Lichtfeld- und Strahlenfeldsensoren in die eine Richtung und ein Pixel-, Voxel- oder Toxelschirmelement in die andere Richtung.
The Super Graphene Charge-Coupled Device (SGCCD) works in both directions, like a CCD or our light-field and ray-field sensors in the one direction, and a pixel or voxel display element in the other direction.

 

   
Super Complementary Graphene Semiconductor™ (SCGOS) 13.April.2013
Der super komplementäre Graphenoxidhalbleiter funktioniert in beide Richtungen, wie ein CGOS-Bildrechner oder unsere Lichtfeld- und Strahlenfeldsensoren in die eine Richtung und ein Pixel-, Voxel oder Toxelschirmelement in die andere Richtung.
The Super Complementary Graphene Oxide Semiconductor (SCGOS) works in both directions, like a CGOS imager or our light-field and ray-field sensors in the one direction, and a pixel, voxel, or toxel screen element in the other direction.

 

   
Super CGOS GCCD™ (SCGOSGCCD™) 13.April.2013
Die super komplementäre Graphenoxid-Halbleiter ladungsträgergekop- pelte Graphenschaltung ist ein Hybrid, der entweder aus unserem Super Complementary Graphene Oxide Semiconductor (SCGOS) und unserer ladungsträgergekoppelten GraphenSchaltung==Graphene Charge-Coupled Device (GCCD) oder unserem komplementären Gra- phenoxid-Halbleiter==Complementary Graphene Oxide Semiconductor (CGOS) und unserer Super Graphene Charge-Coupled Device (SGCCD) besteht.
The Super Complementary Graphene Oxide Semiconductor Charge-Coupled Device (SCGOSGCCD) is a hybrid that either is made of our Super CGOS (SCGOS) and our Graphene Charge-Coupled Device (GCCD), or our Complementary Graphene Oxide Semiconductor (CGOS) and our Super Graphene Charge-Coupled Device (SGCCD).

 

   
LED Charge-Coupled Device™ (LED CCD™)
Unsere bi-, tri- und tetradirektionale LichtEmittierende Diode (LED) ladungsträgergekoppelte Schaltungen==Charge-Coupled Devices (CCDs) basieren auf der Integration von einer CCD, wie unserer Super CCD (SCCD), normalen oder besonderen Prozessorkernen und Chips und LEDs verschiedenster Typen. Hierdurch ergibt siche eine breite Palette von Möglichkeiten, die zum Beispiel die Organische LED CCD (OLED CCD), die LaserDiode CCD (LD CCD), die LED digitales Licht verarbeitende CCD (LED DLP CCD), die OLED DLP CCD und die LD DLP CCD umfassen. Beispielhafte Anwendungen sind unsere Sm@rtfone, Ontoskope, Head-Mounted Displays der 2. Generation, Sm@rte Brillen, Retinaprojektoren, Sm@rte Uhren und Head-Up Displays für Vehikel, die auf unserem Space@Car-Ansatz basieren.
Our bi-, tri-, and tetradirectional Light-Emitting Diode (LED) Charge-Coupled Device (CCDs) are based on the integration of a CCD, like our Super CCD (SCCD), standard or special processorcores and chips, and LEDs of different types. As a result of this, a wide range of possibilities arises that comprises for example the Organic LED CCD (OLED CCD), the Laser Diode CCD (LD CCD), the LED Digital Light Processing CCD (LED DLP CCD), the OLED DLP CCD, and the LD DLP CCD. Exemplary applications are our Sm@rtphones, Ontoscopes, Head-Mounted Displays of the 2. generation, Sm@rtEyewear, Retina Projectors, Sm@rtWatches, and Head-Up Displays for vehicles based on our Space@Car approach.

 

   
LED Complementary Oxide Semiconductor (LED CMOS)
Unser bi-, tri- und tetradirektionale LichtEmittierende Diode (LED) komplementären Metalloxid-Halbleiter==Complementary Metal Oxide Semiconductors (CMOSs) basieren auf der Integration von einem CMOS, wie unserem Super CMOS (SCMOS), normalen oder besonderen Prozessorkernen und Chips und LEDs verschiedenster Typen. Hierdurch ergibt siche eine breite Palette von Möglichkeiten, die zum Beispiel die Organische LED CMOS (OLED CMOS), die LaserDiode CMOS (LD CMOS), die LED digitales Licht verarbeitende CMOS (LED DLP CMOS), die OLED DLP CMOS und die LD DLP CMOS umfassen. Beispielhafte Anwendungen sind unsere Sm@rtfone, Ontoskope, Head-Mounted Displays der 2. Generation, Sm@rte Brillen, Retinaprojektoren, Sm@rte Uhren und Head-Up Displays für Vehikel, die auf unserem Space@Car-Ansatz basieren.
Our bi-, tri-, and tetradirectional Light-Emitting Diode (LED) Complementary Metal Oxide Semiconductor (CMOSs) are based on the integration of a CMOS, like our Super CMOS (SCMOS), standard or special processorcores and chips, and LEDs of different types. As a result of this, a wide range of possibilities arises that comprises for example the Organic LED CMOS (OLED CMOS), the Laser Diode CMOS (LD CMOS), the LED Digital Light Processing CMOS (LED DLP CMOS), the OLED DLP CMOS, and the LD DLP CMOS. Exemplary applications are our Sm@rtphones, Ontoscopes, Head-Mounted Displays of the 2. generation, Sm@rtEyewear, Retina Projectors, Sm@rtWatches, and Head-Up Displays for vehicles based on our Space@Car approach.

 

   
LED CMOS CCD (LED CMOS CCD)
Unsere bi-, tri- und tetradirektionale LichtEmittierende Diode (LED) komplementäre Metalloxid-Halbleiter==Complementary Metal Oxide Semiconductor (CMOS) ladungsträgergekoppelte Schaltungen== Charge-Coupled Devices (CCDs) basieren auf der Integration von einer CMOS CCD, wie unsere Super CMOS CCD (SCMOSCCD), normalen oder besonderen Prozessorkernen und Chips, unseren Technologien der NanoProjektoren und der LED DLP Bildanzeigen 2.0 sowie LEDs verschiedenster Typen. Hierdurch ergibt siche eine breite Palette von Möglichkeiten, die unter anderem die Organische LED CMOS CCD (OLED CMOS CCD), die LaserDiode CMOS CCD (LD CMOS CCD), die LED digitales Licht verarbeitende CMOS CCD (LED DLP CMOS CCD), die OLED DLP CMOS CCD und die LD DLP CMOS CCD umfassen. Beispielhafte Anwendungen sind unsere Sm@rtfone, Ontoskope, Head-Mounted Displays der 2. Generation, Sm@rte Brillen, Retinaprojektoren, Sm@rte Uhren und Head-Up Displays für Vehikel, die auf unserem Space@Car-Ansatz basieren.
Our bi-, tri-, and tetradirectional Light-Emitting Diode (LED) Complementary Metal Oxide Semiconductor (CMOS) Charge-Coupled Devices (CCDs) are based on the integration of a CMOS CCD, like our Super CMOS CCD (SCMOSCCD), standard or special processorcores and chips, our technologies of the NanoProjectors and the LED DLP Displays 2.0, and also LEDs of different types. As a result of this, a wide range of possibilities arises that comprises the Organic LED CMOS CCD (OLED CMOS CCD), the Laser Diode CMOS CCD (LD CMOS CCD), the LED Digital Light Processing CMOS CCD (LED DLP CMOS CCD), the OLED DLP CMOS CCD, and the LD DLP CMOS CCD among others. Exemplary applications are our Sm@rtphones, Ontoscopes, Head-Mounted Displays of the 2. generation, Sm@rtEyewear, Retina Projectors, Sm@rtWatches, and Head-Up Displays for vehicles based on our Space@Car approach.

 

   
LED Graphene CCD™ (LED GCCD™)
Was unsere bi-, tri- und tetradirektionale lichtemittierende Diode graphenbasierte ladungsgekoppelte Schaltungen==Graphene-based Charge-Coupled Devices (GCCDs) so besonders macht, ist, dass sie auf unserer Super GCCD (SGCCD), unserem Graphen-Chip und LEDs verschiedenster Typen basieren. Zu den sich hieraus ergebenden Varianten zählen zum Beipspiel die Organische LED GCCD (OLED GCCD), die LaserDiode GCCD (LD GCCD), die LED digitales Licht verarbeitende GCCD (LED DLP GCCD), die OLED DLP GCCD und die LD DLP GCCD.
What makes our bi-, tri-, and tetradirectional Light-Emitting Diode (LED) Graphene-based Charge-Coupled Devices (GCCDs) so special is that they are based on our Super GCCD (SGCCD), our Graphene Chip, and various LED types. To the resulting variants belong for example the Organische LED GCCD (OLED GCCD), the Laser Diode GCCD (LD GCCD), the LED Digital Light Processing GCCD (LED DLP GCCD), the OLED DLP GCCD, and the LD DLP GCCD.

 

   
LED Complementary Graphene Oxide Semiconductor™ (LED CGOS™)
Was unsere bi-, tri- und tetradirektionalen lichtemittierenden Diode komplementären Graphenoxid-Halbleiter==Complementary Graphene Oxide Semiconductors (CGOSs) so besonders macht, ist, dass sie auf unserem Super CGOS (SCGOS), unserem Graphen-Chip und LEDs verschiedenster Typen basieren. Zu den sich hieraus ergebenden Varianten zählen zum Beipspiel die Organische LED CGOS (OLED CGOS), die LaserDiode CGOS (LD CGOS), die LED digitales Licht verarbeitende CGOS (LED DLP CGOS), die OLED DLP CGOS und die LD DLP CGOS.
What makes our bi-, tri-, and tetradirectional Light-Emitting Diode (LED) Complementary Graphene Oxide Semiconductors (CGOSs) so special is that they are based on our Super CGOS (SCGOS), our Graphene Chip, and various LED types. To the resulting variants belong for example the Organische LED CGOS (OLED CGOS), the Laser Diode CGOS (LD CGOS), the LED Digital Light Processing CGOS (LED DLP CGOS), the OLED DLP CGOS, and the LD DLP CGOS.

 

   
LED CGOS GCCD™
Unsere bi-, tri- und tetradirektionale organische lichtemittieren- de Diode komplementäre Graphenoxid-Halbleiter graphenbasierte ladungsgekoppelte Schaltungen basieren auf unseren Super CGOS CCDs (SCGOSCCDs), unserem Graphen-Chip und verschiedenster LED-Typen. Hierdurch ergibt siche eine breite Palette von Möglichkeiten, die unter anderem die Organische LED CGOS GCCD (OLED CGOS GCCD), die LaserDiode CGOS GCCD (LD CGOS GCCD), die LED digitales Licht verarbeitende CGOS GCCD (LED DLP CGOS GCCD), die OLED DLP CGOS GCCD. die LD DLP CGOS GCCD sowie die Graphenbasierte LED CGOS GCCD (GLED CGOS GCCD), die Graphenbasierte LaserDiode CGOS GCCD (GLD CGOS GCCD), die GLED digitales Licht verarbeitende CGOS GCCD (GLED DLP CGOS GCCD), die GLED DLP CGOS GCCD. die GLD DLP CGOS GCCD umfassen.
What makes our bi-, tri-, and tetradirectional Organic Light-Emitting Diode Complementary Graphene Oxide Semiconductor (CGOS) Graphene-based Charge-Coupled Device (GCCD) so special is that it is based on our Super CGOS CCDs (SCGOSCCDs), our Graphene Chip, and various LED types. As a result of this, a wide range of possibilities arises that comprise the Organic LED CGOS GCCD (OLED CGOS GCCD), the Laser Diode CGOS GCCD (LD CGOS GCCD), the LED Digital Light Processing CGOS GCCD (LED DLP CGOS GCCD), the OLED DLP CGOS GCCD, and the LD DLP CGOS GCCD among others.

 

   
Neural Net-based Charge-Coupled Device™ (NNCCD™) 23.February.2013
Die neuronale netzwerkbasierte ladungsträgergekoppelte Schaltung ist eine Integration von unserem neuronalen NetzwerkChip (NNC) mit einer ladungsträgergekoppelte Schaltung==Charge-Coupled Device (CCD), wie unserem Super Charge-Coupled Device (SCCD).
The Neural Net-based Charge-Coupled Device (NNCCD) is an integration of our Neural Net Chip (NNC) with a Charge-Coupled Device (CCD), like our Super Charge-Coupled Device (SCCD).

 

   
Neural Net-based Complementary Metal Oxide Semiconduct- or™ (NNCMOS™) 26.March.2013
Der neuronale netzwerkbasierte komplementäre Metalloxid-Halbleiter ist eine Integration von unserem Neuronalen NetzwerkChip (NNC) mit einem komplementäre Metalloxid-Halbleiterbildrechner==Complement- ary Metal Oxide Semiconductor (CMOS) Imager, wie unserem Super CMOS (SCMOS).
The Neural Net-based Complementary Metal Oxide Semiconductor (NNCMOS) is an integration of our Neural Net Chip (NNC) with a Complementary Metal Oxide Semiconductor (CMOS) imager, like our Super CMOS (SCMOS).

 

   
Neural Net CMOS CCD™ (NNCMOSCCD™) 26.March.2013
Die neuronale netzwerkbasierte komplementäre Metalloxid-Halbleiter ladungsträgergekoppelte Schaltung ist ein Hybrid, der aus unserem Neuronalen NetzwerkChip (NNC), einem komplementären Metalloxid-Halbleiter==Complementary Metal Oxide Semiconductor (CMOS) und einer ladungsträgergekoppelten Schaltung==Charge-Coupled Device (CCD) besteht. Als CMOS und CCD können zum Beispiel unser Super CMOS (SCMOS) und unsere Super Charge-Coupled Device (SCCD) verwendet werden.
The Neural Net-based Complementary Metal Oxide Semiconductor Charge-Coupled Device (NNCMOSCCD) is a hybrid that is made of our Neural Net Chip (NNC), a Complementary Metal Oxide Semicon- ductor (CMOS), and a Charge-Coupled Device (CCD). Our Super CMOS (SCMOS) and our Super Charge-Coupled Device (SCCD) can be used as CMOS and CCD for example.

 

   
Neural Net LED Charge-Coupled Device™ (NN LED CCD™)
Unsere bi-, tri- und tetradirektionale Neuronale Netzwerkbasierte (NN) LichtEmittierende Diode (LED) ladungsträgergekoppelte Schaltungen==Charge-Coupled Devices (CCDs) basieren auf der Integration von unseren neuronalen netzwerkbasierten ladungsträgergekoppelten Schaltung und LEDs verschiedenster Typen. Hierdurch ergibt siche eine breite Palette von Möglichkeiten, zu denen zum Beispiel die NN Organische LED CCD (NN OLED CCD), die NN Laserdiode CCD (NN LD CCD), die NN LED digitales Licht verarbeitende CCD (NN LED DLP CCD), die NN OLED DLP CCD und die NN LD DLP CCD zählen.
Our bi-, tri-, and tetradirectional Neural Net-based (NN) Light-Emitting Diode (LED) Charge-Coupled Devices (CCDs) are based on the integration of our Neural Net-based Charge-Coupled Device (NNCCD) and LEDs of different types. As a result of this, a wide range of possibilities arise that comprise for example the NN Organic LED CCD (NN OLED CCD), the NN Laser Diode CCD (NN LD CCD), the NN LED Digital Light Processing CCD (NN LED DLP CCD), the NN OLED DLP CCD, and the NN LD DLP CCD.

 

   
Neural Net LED Complementary Oxide Semiconductor (NN LED CMOS)
Unsere bi-, tri- und tetradirektionale Neuronale Netzwerkbasierte (NN) LichtEmittierende Diode (LED) komplementären Metalloxid-Halbleiter==Complementary Metal Oxide Semiconductors (CMOSs) basieren auf der Integration von unserem neuronalen netzwerkbasierten komplementären Metalloxid-Halbleiter und LEDs verschiedenster Typen. Hierdurch ergibt siche eine breite Palette von Möglichkeiten, die zum Beispiel den NN Organische LED CMOS (NN OLED CMOS), den NN LaserDiode CMOS (NN LD CMOS), den NN LED digitales Licht verarbeitende CMOS (NN LED DLP CMOS), den NN OLED DLP CMOS und den NN LD DLP CMOS umfassen.
Our bi-, tri-, and tetradirectional Neural Net-based (NN) Light-Emitting Diode (LED) Complementary Metal Oxide Semiconductor (CMOS) are based on our Neural Net CMOS (NNCMOS) and LEDs of different types. As a result of this, a wide range of possibilities arise that comprise for example the NN Organic LED CMOS (NN OLED CMOS), the NN Laser Diode CMOS (NN LD CMOS), the NN LED Digital Light Processing CMOS (NN LED DLP CMOS), the NN OLED DLP CMOS, and the NN LD DLP CMOS.

 

   
Neural Net LED CMOS CCD (NN LED CMOS CCD)
Unsere bi-, tri- und tetradirektionale Neuronale Netzwerkbasierte (NN) LichtEmittierende Diode (LED) komplementären Metalloxid-Halbleiter==Complementary Metal Oxide Semiconductor (CMOS) ladungsträgergekoppelte Schaltungen==Charge-Coupled Devices (CCDs) basieren auf der Integration von unserer neuronalen netzwerkbasierten CMOS CCD (NN CMOS CCD) und LEDs verschiedenster Typen. Hierdurch ergibt siche eine breite Palette von Möglichkeiten, die unter anderem die NN Organische LED CMOS CCD (NN OLED CMOS CCD), die NN LaserDiode CMOS CCD (NN LD CMOS CCD), die NN LED digitales Licht verarbeitende CMOS CCD (NN LED DLP CMOS CCD), die NN OLED DLP CMOS CCD und die NN LD DLP CMOS CCD umfassen.
Our bi-, tri-, and tetradirectional Neural Net-based (NN) Light-Emitting Diode (LED) Complementary Metal Oxide Semiconductor (CMOS) Charge-Coupled Device (CCD) are based on the integration of our Neural Net CMOS CCD (NN CMOS CCD) and LEDs of different types. As a result of this, a wide range of possibilities arise that comprise the NN Organic LED CMOS (NN OLED CMOS), the NN Laser Diode CMOS (LD CMOS), the NN LED Digital Light Processing CMOS (NN LED DLP CMOS), the NN OLED DLP CMOS, and the NN LD DLP CMOS among others.

 

   
Neural Net-based Graphene Charge-Coupled Device™ (NNGCCD™) 13.April.2013
Die neuronale netzwerkbasierte ladungsträgergekoppelte Graphen- schaltung ist eine Integration von unserem Neuronalen Netzwerk- GraphenChip (NNGC) mit einer ladungsträgergekoppelten Graphen- schaltung==Graphene Charge-Coupled Device (GCCD), wie unserem Super Graphene Charge-Coupled Device (SGCCD).
The Neural Net-based Graphene Charge-Coupled Device (NNGCCD) is an integration of our Neural Net Graphene Chip (NNGC) with a Gra- phene Charge-Coupled Device (CCD), like our Super Graphene Char- ge-Coupled Device (SGCCD).

 

   
Neural Net-based Complementary Graphene Oxide Semicon- ductor™ (NNCGOS™) 13.April.2013
Der neuronale netzwerkbasierte komplementäre Graphenoxid-Halbleiter ist eine Integration von unserem Neuronalen NetzwerkGraphenChip (NNGC) mit einem komplementären Graphenoxid-Halbleiterbildrechner ==Complementary Graphene Oxide Semiconductor (CGOS) Imager, wie unserem Super CGOS (SCGOS).
The Neural Net-based Complementary Graphene Oxide Semiconductor (NNCMOS) is an integration of our Neural Net Graphene Chip (NNGC) with a Complementary Graphene Oxide Semiconductor (CGOS) imag- er, like our Super CGOS (SCGOS).

 

   
Neural Net CGOS GCCD™ (NNCGOSGCCD™) 13.April.2013
Die neuronale netzwerkbasierte komplementäre Graphenoxid-Halbleiter ladungsträgergekoppelte Schaltung ist ein Hybrid, der aus unserem Neuronalen NetzwerkGraphen-Chip (NNGC), einem komplementären Graphenoxidhalbleiter==Complementary Graphene Oxide Semicon- ductor (CGOS) und einer ladungsträgergekoppelten Graphenschal- tung==Graphene Charge-Coupled Device (GCCD) besteht. Als CGOS und GCCD können zum Beispiel unser Super CGOS (SCGOS) und un- sere Super GCCD (SGCCD) verwendet werden.
The Neural Net-based Complementary Graphene Oxide Semiconduct- or Charge-Coupled Device (NNCGOSCCD) is a hybrid that is made of our Neural Net Graphene Chip (NNGC), a Complementary Graphene Oxide Semiconductor (CGOS), and a Graphene Charge-Coupled Device (GCCD). Our Super CGOS (SCGOS) and our Super GCCD (SGCCD) can be used as CGOS and GCCD for example.

 

   
Neural Net LED Graphene Charge-Coupled Device™ (NN LED GCCD™)
Die Neuronale Netzwerkbasierte (NN) LichtEmittierende Diode (LED) ladungsträgergekoppelte Graphenschaltungen==Graphene-based Charge-Coupled Devices (GCCDs) basieren auf der Integration von unseren NN LED CCDs und unseren NN GCCD. Somit ergeben sich Varianten, wie zu Beispiel die NN OLED GCCD, die NN LaserDiode GCCD (NN LD GCCD), die NN Graphenbasierte LED GCCD (NN GLED GCCD), die NN Graphenbasierte LD GCCD (NN GLED GCCD) sowie die NN LED digitales Licht verarbeitende GCCD (NN LED DLP GCCD), die NN OLED DLP GCCD, die NN LD DLP GCCD, die NN GLED DLP GCCD und die NN GLD DLP GCCD.
The Neural Net-based (NN) Light-Emitting Diode (LED) Graphene Charge-Coupled Devices (GCCDs) are based on the integration of our Neural Net CCDs and our NN GCCDs. Hence variants result, like for example the NN OLED GCCD, the NN Laser Diode GCCD (NN LD GCCD), the NN Graphene-based LED GCCD (NN GLED GCCD), the NN Graphene-based LD GCCD (NN GLED GCCD), as well as the NN LED Digital Light Processing GCCD (NN LED DLP GCCD), the NN OLED DLP GCCD, the NN LD DLP GCCD, the NN GLED DLP GCCD, and the NN GLD DLP GCCD.

 

   
Neural Net LED Complementary Graphene Oxide Semicon- ductor™ (NNCGOS™)
Die Neuronale Netzwerkbasierte (NN) LichtEmittierende Diode (LED) komplementäre Graphenoxid-Halbleiter==Complementary Graphene Oxide Semiconductors (CGOSs) basieren auf der Integration von unseren NN LED CMOSs und unserer NN CGOS. Somit ergeben sich Varianten, wie zu Beispiel die NN OLED CGOS, die NN LaserDiode CGOS (NN LD CGOS), die NN Graphenbasierte LED CGOS (NN GLED CGOS), die NN Graphenbasierte LD CGOS (NN GLED CGOS) sowie die NN LED digitales Licht verarbeitende CGOS (NN LED DLP CGOS), die NN OLED DLP CGOS, die NN LD DLP CGOS, die NN GLED DLP CGOS und die NN GLD DLP CGOS.
The Neural Net-based (NN) Light-Emitting Diode (LED) Complementary Graphene Oxide Semiconductors (CGOSs) are based on the integration of our NN LED CMOSs and our NN CGOS. Hence variants result, like for example the NN OLED CGOS, the NN Laser Diode CGOS (NN LD CGOS), the NN Graphene-based LED CGOS (NN GLED CGOS), the NN Graphene-based LD CGOS (NN GLED CGOS), as well as the NN LED Digital Light Processing CGOS (NN LED DLP CGOS), the NN OLED DLP CGOS, the NN LD DLP CGOS, the NN GLED DLP CGOS, and the NN GLD DLP CGOS.

 

   
Neural Net LED CGOS GCCD™ (NNCGOSGCCD™)
Die Neuronale Netzwerkbasierte (NN) LichtEmittierende Diode (LED) komplementäre Graphenoxid-Halbleiter==Complementary Graphene Oxide Semiconductors (CGOSs) ladungsträgergekoppelte Schaltungen==Graphene-based Charge-Coupled Devices (GCCDs) sind Hybride, die aus unserem NN LED CMOS CCD und NN CGOS GCCD bestehen.
The Neural Net-based (NN) Complementary Graphene Oxide Semiconductor (CGOS) Grapene-based Charge-Coupled Device (GCCD) are hybrids that are made of our NN LED CMOS CCD and NN CGOS GCCD.

 

   
Neural Detector Core™ and Chip/Processor (NDC™) 23.February.2013
Der neuronale Detektorkern und -chip/prozessor==Neural-Detector- Core und -Chip (NDC) bezeichnet eine Neuronenprozessorachitektur, die mit der Funktionalität eines Gehirns komplementiert wird, das die erforderlichen Erfahrungen und das Wissen besitzt um die korrekten Reaktionen auszuführen. Für die Realisierung erforschten und ent- warfen wir eine umfassende Palette von einzelnen, integrierten Schaltungen, die elektromagnetische (beinhaltet visuelle Optiken) und mechanische (beinhaltet akustische) Komponenten und Geräte als auch Elektronik, insbesondere elektromagnetische und mechani- sche Sensoren, wie einer ladungsträgergekoppelten Schaltung== CCD, unserer Super-Charge-Coupled-Device (SCCD), unseren Wel- lenfeldsensoren, als auch weiteren elektromagnetischen, mechani- schen, akustischen und anderen Sensortypen für sämtliche physi- kalischen Größen (Temperatur, Feuchtigkeit usw.), Konzepte von unserem Ontoskop und den stark verknüpften aktiven Komponenten Active Camera und Active Sensor, die bereits die zuvor aufgeführten Sensoren verwenden, unseren Speicherkernen==Memcores, Tartan-Chips, 3D-Rechenprozessor, Neuronales Netzwerkbasierten Chip/Pro- zessor, SuperRechen-Chip/Prozessor und Wiser-Chip als auch ihre Ausführungen als System-on-a-Chip (SoC) und System-in-a-Pack- age (SiP) kombinieren. Durch die Anwendung eines neuronalen Netz- werks kann der NDC zur Ausfilterung von physikalischen Bedingun- gen, insbesondere der Helligkeit und der klimatischen Bedingungen, und für das korrekte Reagieren trainiert und optimiert werden um die speziellen Anforderungen von einer Anwendung zu erfüllen.
The Neural Detector Core and Chip/Processor (NDC) denotes a neu- ron chip architecture, which is complemented by the functionality of a brain that provides the necessary experience and knowledge for execute the correct reactions. For the realization we researched and designed a comprehensive range of single, integrated circuits that combine electromagnetical (includes visual optics) and mechanical (includes acustical transducer) components and devices, as well as electronics, specifically electromagnetical and mechanical sensors, like a Charge-Coupled Device (CCD), as used in digital cameras, our Super Charge-Coupled Device (SCCD), our wave-field sensors, as well as further electromagnetical, acoustical, and other types of sensors for all physical quantities, concepts of our Ontoscope and the strongly connected Active Components Active Camera and Active Sensor, which already apply the before named sensors, our Memcores, Tartan Chips, 3D Computing Chip (3DC²), Neural Net Chip/Processor, SuperComputing Chip/Processor (SC²) and Wiser Chip. By applying a neuronal network the NDC can be trained for filtering out physical conditions, specifically the illumination and climatic conditions, and for reactioning correctly to fulfill the specific requirements of an application.

 

   
Neural Detector on a Chip™ (NDoC™) 23.February.2013
Ein neuronale Detektor auf einem Chip==Neural-Detector-on-(a-)Chip (NDoC) ist eine dreidimensionale integrierte neuronale Schaltung==Three-Dimensional-Integrated-Neural-Circuit (3DINC), das im Unterschied zu einem neuronalen Detektor in einem Gehäuse==Neural-Detector-in-(a-)Package (NDiP) Chip-interne elektromagnetische Interverbindungen besitzt.
A Neural Detector on (a) Chip (NDoC) is a Three-Dimensional Integrated Neural Circuit (3DINC), that has on-chip electromagnetic interconnects in contrast to a Neural Detector in (a) Package (NDiP).

 

   
Neural Detector in a Package™ (NDiP™) 23.February.2013
Ein neuronale Detektor in einem Gehäuse==Neural-Detector-in-(a-) Package (NDiP) besteht aus mehreren Systemschichten, die horizon- tal oder/und vertikal in einem Chip-Gehäuse integriert sind. Ein Bei- spiel ist eine Schicht eines Multikernprozessors und eines oder meh- rerer Speicherchips für flüchtige Daten mit wahlfreiem Zugriff==Vola- tile Random-Access-Memory (VRAM) zu stapeln. Der Unterschied zu einem neuronalen Detektorkern und -chip==Neural-Detector-Core and -Chip (NDC), einem neuronalen Detektor auf einem Chip==Neu- ral-Detector-on-(a-)Chip (NDoC), einer 3-dimensionalen integrierten neuronalen Schaltung==Three-Dimensional Integrated Neural Circuit (3DINC) und einem 3-dimensionalen System auf einem Chip==3D-System-on-(a)-Chip (3DSoC) ist, dass die einzelnen Schichten chip- externe Signalgebung nutzen um miteinander zu kommunizieren. Dazu verknüpft der NDIP seine einzelnen Schichten mit elektromagnetischen Interverbindungen, insbesondere mit optischen.
A Neural Detector in (a) Package (NDiP) consists of several system layers that are integrated/packed horizontally or/and vertically in a chip package. An example is to stack a layer of a multicore process- or and one or more volatile Random Access Memory (RAM) chips, like 3D-integrated DRAM chips. The difference to a Neural Detector Core and Chip (NDC), a Three-Dimensional Integrated Neural Circuit (3DINC), a Neural Detector on (a) Chip (NDoC), and a 3D System on (a) Chip (3DSoC) is that the single layers communicate using off- chip signaling. For this purpose, the NDiP connects its single layers with electromagnetic interconnects, specifically with optical ones.

 

   
3D Computing Chip (3DC²™) 200x
Ein 3D-Rechenprozessor==3D-Computing-Chip (3DC²) ist ein Prozessor, der auf der Basis einer dreidimensionalen integrierten Schaltung==Three-Dimensional-Integrated-Circuit (3DIC) basiert.
A 3D Computing Chip (3DC²) is a processor that is based on a Three-Dimensional Integrated Circuit (3DIC).

 

   
3D System on a Chip (3DCoC™) 28.September.2012
Ein 3D-System auf einem Chip==3D-System-on-(a-)Chip (3D SoC) ist eine dreidimensionale integrierte Schaltung==Three-Dimensional-Integrated-Circuit (3DIC), das chip-interne elektromagnetische Interverbindungen im Unterschied zu einem Ein-Gehäuse-3D-System==3D-System-in-(a-)Package (3DSiP) besitzt.
A 3D System on (a) Chip (3DSoC) is a Three-Dimensional Integrated Circuit (3DIC), that has on-chip electromagnetic interconnects in contrast to a 3D System in (a) Package (3DSiP).

 

   
3D System in a Package (3DSiP™) 28.September.2012
Ein 3D System in einem Gehäuse==3D-System-in-(a-)Package (3DSiP) besteht aus mehreren Systemschichten, die horizontal oder/und vertikal in einem Chip-Gehäuse integriert sind. Ein Beispiel ist eine Schicht eines Multikernprozessors und eines Speicherchips für flüchtige Daten mit wahlfreiem Zugriff==volatiler Random-Access-Memory (RAM) zu stapeln. Der Unterschied zu einer dreidimensiona- len integrierten Schaltung==Three-Dimensional-Integrated-Circuit (3DIC) oder einem 3D System auf einem Chip==3D-System-on-(a-) Chip (3DSoC) ist, dass die einzelnen Schichten miteinander durch die Nutzung von Chip-externer Signalgebung kommunizieren. Was wir machen ist die einzelnen 3DSIP-Schichten mit elektromagnetischen Interverbindungen zu verknüpfen, insbesondere mit optischen. Ein 3DSiP kann ein Server auf einem Chip sein, der zum Beispiel für das Wolkenrechnen==Cloud-Computing und 3D-Anwendungen eingesetzt wird und den wir dann als generelles System betrachtet 3D²SoC oder 3D²SiP und als speziellen 3D-Anwendungsserver 3D²-Server-on-Chip nennen.
A 3D System in (a) Package (3DSiP) consists of several system lay- ers that are integrated/packed horizontally or/and vertically in a chip package. An example is to stack a layer of a multicore processor and a volatile Random Access Memory (RAM) chip, like 3D-integrated DRAM chips. The difference to a Three-Dimensional Integrated Cir- cuit (3DIC) or a 3D System on (a) Chip (3DSoC) is that the single layers communicate by using off-chip signaling. What we do is to connect the single layers of the 3D SiP with electromagnetic inter- connects, specifically with optical ones. A 3DSiP could be a server on (a) chip, that is used in the areas of the cloud computing and 3D-applications for example, and that we call then 3D²SoC or 3D²SiP seen as a general system, and 3D² server on (a) chip seen as spec- ial 3D-application server.

 

   
SuperComputing Core™ and Chip/Processor (SC²™) 27.August.2012
Der SuperComputerChip (SC²) für das HochPerformanz- und Hoch- Produktivitätsrechnen (HP²R) ist ein Mehrkernprozessor mit bis zu 98.304 oder mehr Kernen und 6D-Netz-/Torus-Topologie für die in- terne Verbindung der einzelnen Kerne, genau so wie Supercomputer jeglichen Typs sie besitzen. Der SC² kann durch die Nutzung unserer Technologien 3D-Transistor, 3D-Memristor, Cool Chip, Memkern, sup- raleitender Kern und Neuronaler Netzkern hergestellt werden. Ver- schiedene Varianten sind zentrale Prozessoreinheit==Central Proc- essing Unit (CPU, grafische Prozessoreinheit==Graphic Processing Unit (GPU) und Chipsätze mit integrierter Grafik sowie die bereits vorgestellte Neuronales Netz basierte Zentrale RechenEinheit (NNZRE) mit HyperCube-Geometry. Die HPC²GPU is ideal geeignet für unser MehrLagen-Display (MLD), sodass jede einzelne Bildschirmschicht mit einem Kern verbunden ist, was am Ende zu einem System führen wird, das für jeden Pixel oder Voxel einen Kern hat und zwei verschiedene Ausprägungen des gleichen Bildes: eine in dem Chip und eine auf dem Bildschirm. Er ist auch perfekt in den Bereichen des Wellenfeldrechnens und der Wellenfeldsynthese einsetzbar.
The SuperComputing Chip (SC²) for the High Performance and High Productivity Computing (HP²C), aka. Cray in a Chip (CiC) or Cray as a Chip (CaC), is a multicore chip with up to 98,304 or more cores and a 6D mesh/torus topology as the interconnection of the single cores exactly like supercomputers of any type have. The SC² can be made by using our technologies 3D transistor, 3D memristor, Cool Chip, Memcore, superconducting core, and Neural Net Core. Different variants are Central Processing Unit (CPU), Graphic Processing Unit (GPU), and chip sets with integrated graphics, as well as the already presented Neural Net CPU (NNCPU) with HyperCube geometry. The HPC²GPU is ideally suited for our Multi-Layer/Stacked Display (MLD), so that each single display layer/slice is connected to a core, which will lead in the end to a system that has for each pixel or voxel one core, and two different manifestations of the same image: one in the Chip and one on the display. It is also perfectly applicable in the areas of wave-field computing and wave-field rendering.

 

   
SuperComputer on a Chip (SCoC™) 27.August.2012
Der SuperComputer auf einem Chip, aba. Cray auf einem Chip, be- zeichnet eine Systemarchitektur, die einen Hochleistungsrechenpro- zessor, der eine 6D-Mesh/-Torus-Topologie besitzt, mit einem System auf einen Chip integriert. Wie der Persönliche Computer (PC) durch die Arbeitsstation==Workstation ausgetauscht wurde, wird die Ar- beitsstation durch die Hochleistungsrechenstation ersetzt.
The SuperComputer on a Chip (SCoC), aka. Cray on a Chip (CoC), denotes a system architecture that integrates a SuperComputing Chip (SC²)/High Performance and High Productivity Computing Chip (HP²C²), which has a 6D mesh/torus topology, with a System on a Chip (SoC). Like the personal computer replaced the workstation, the workstation is replaced by the High-Performance Computing station.

 

   
SuperComputer in a Package™ (SCiP™) 28.August.2012
Der SuperComputer in einem Gehäuse, aba. Cray in einer Packung, bezeichnet eine Systemarchitektur, die einen SuperComputerChip/ Hochleistungsrechenprozessor, der eine 6D-Mesh/-Torus-Topologie besitzt, mit einem System in einem Gehäuse integriert.
The SuperComputer in a Package (SCiP), aka. Cray in a Package (CiP), denotes a system architecture that integrates a SuperComp- uting Chip (SC²)/High Performance and High Productivity Computing Chip (HP²C²), which has a 6D mesh/torus topology, with a System in a Packung (SiP).

 

   
Associative Array Core™ and Chip™/Processor 7.April.2013
Der assoziative Datenfeldchip==Associative-Array-Chip ist ein Chip für Aufgaben wie dem allgemeinen Handhaben, Auffinden/Abfragen, Zusammenführen, Beschleunigen und weiteren Aufgaben im Zusam- menhang mit strukturierten Modellen auf der Basis von assoziativen Datenfeldern. Mit dem Associative-Array-Chip können Schlüssel-Wert-Daten/Paarespeicher, wie UnQL und NoSQL Datenbankmamage- mentsysteme und ihre Abfragesprachen sehr effizient gehandhabt werden. Er kann auch z. B. mit unserem Triple-Chip, Datenspeichern, Dateisystemen und anderen Techniken und Technologien genutzt werden.
The Associative Array Chip is a chip for tasks like the general man- aging, retrieving/querying, joining, accelerating, and further tasks related with structured models on the basis of associative arrays. By using the Associative Array Chip also key-value data/pairs stores, like Unstructured Query Language (UnQL) and Not only Structured Query Language (NoSQL) database management systems, and their query languages can be handled very efficiently as well. It can also be used with e.g. our Triple Chip, data storage devices, file systems, and other techniques and technologies based on associative arrays.

 

   
Triple Core™ and Chip™/Processor 21.February.2013
Der Dreifach-Kern==Triple-Chip ist ein Chip für Aufgaben, wie dem allgemeinen Handhaben, Schlussfolgern und Vergleichen sowie für weitere Aufgaben im Zusammenhang mit strukturierten Modellen auf der Basis von Drillingen/Tripeln. Mit dem Triple-Chip können auch Formate, wie das Resource Description Framework (RDF) und Nota- tion3 (N3), sehr effizient gehandhabt werden.
The Triple Chip is a chip for tasks, like the general managing, reas- oning, and comparing, and also for further tasks related with struct- ured models on the basis of triples. With the Triple Chip formats, like the Resource Description Framework (RDF) and Notation3 (N3), can be handled very efficiently as well.

 

   
Wiser Core™ and Chip™/Processor 21.February.2013
Der Wiser-Chip (WiserC) ist ein Wiser, der direkt in der Hardware als ein 3D Rechenprozessor==3D-Computing-Chip (3DC²) implementiert ist. Dazu kann eine 3-dimensionale Architektur verwendet werden, die entweder Schichten oder Bereiche besitzt, sodass viele verschie- dene Ausführungen ermöglicht werden. So kann zum Beispiel bei ei- ner Schichtenarchitektur der Wiser-Chip mindestens zwei Schichten besitzen, von denen die eine Schicht die logischen Gatter (normal oder/und elektromagnetisch beziehungsweise optisch) und die ande- re Schicht die Maser- und Lasersendeeinheiten und die elektroma- gnetischen/optischen Sensoren trägt, die zur Kontrolle und Energie- versorgung der logischen Gatter der anderen Schicht als auch für die Datenübertragung im Sinne von Eingabe und Ausgabe dienen. Eine weitere Schichtenarchitektur ergibt sich durch das Mischen der logi- schen Gatter und der elektromagnetischen/optischen Systeme auf den Schich- ten. Läßt man zusätzlich die Schichtung in einer weite- ren räumlichen Achse zu, so ergeben sich viele verschiedene Varian- ten mit unterschiedlichen räumlichen Anordnungen.
The Wiser Chip (WiserC) is a Wiser, which is directly implemented in the hardware as a 3D Computing Chip (3DC²). For this, a 3-dimens- ional architecture can be applied, which has either layers or areas, so that many different versions are made possible. For example, with a layered architecture the Wiser-Chip can have at least two layers of which the one layer carries the logic gates (common or/and elec- tromagnetical respectively optical) and the other layer the maser and laser transmitter units and the electromagnetical/optical sens- ors, which serve for the control and the energy supply of the logic gates of the other layer as well as for the data transmission in the sense of input and output. A further layered architecture results from the mixing of the logic gates and the electromagnetical/optical systems on the layers. If the layering in a further spatial axis is add- itionally allowed, then many different variants with varying spatial positionings emerges.

 

   
Wiser on a Chip™ (WoC™) 21.February.2013
Der Wiser auf einem Chip bezeichnet die Implementierung eines ka- bellosen Supercomputers==Wireless Supercomputer (Wiser) als ein Ein-Chip-System.
The Wiser on (a) Chip (WoC) denotes the implementation of a Wireless Supercomputer (Wiser) as a System on a Chip (SoC).

 

   
Wiser in a Package™ (WiP™) 21.February.2013
Der Wiser in einem Gehäuse==Wiser-in-a-Package (WiP) bezeichnet die Implementierung eines kabellosen Supercomputers==Wireless Supercomputer (Wiser) als ein Ein-Gehäuse-System.
The Wiser in a Package (WiP) denotes the implementation of a Wireless Supercomputer (Wiser) as a System in a Package (SiP).

 

   
Neural Net Core™ and Chip™/Processor (NNC™)
Der neuronale Netzkern und der neuronale Netzprozessor sind ein Systemkern und ein Prozessor, die auf neuronalen Netzen und unse- rer Mehrkernkompetenz basieren. Zu den revolutionären Innovatio- nen aus unserem OntoLab™ zählen die supraleitende Eigenschaft, die HyperCube-Geometrie und die vollständige zentrale neuronale Netz- prozessoreinheit, aber auch ihre weiteren Abstraktionen durch die Systemarchitekturen des neuronalen Wiser-Kerns und des neuronalen Wiser-Prozessors.
The Neural Net Cores and tje Neural Net Processor are a system cores and a processor, which are based on neural networks and our Multicore Competence. To the revolutionary innovations of our OntoLab™ belong the superconducting feature, the HyperCube geometry, and the complete Central Neural Net Processing Unit™ (CNNPU™) but also their further abstractions with the system archi- tectures of the Neural Wiser-Core and the Neural Wiser-Processor.

 

   
Neural Net on a Chip™ (NNoC™)
Das neuronale Netz auf einem Chip==Neural-Net-on-a-Chip (NNoC) bezeichnet die Implementierung eines neuronalen Netzes als ein Ein-Chip-System. Dazu können unsere neuronalen Netzkerne und neuronalen Netzprozessoren, alle unsere anderen Chiptechnologien, als auch geeignete Sensoren und Aktuatoren verwendet werden.
The Neural Net on (a) Chip (NNoC) denotes the implementation of a neural network as a System on (a) Chip (SoC). For this, our Neural Net Cores (NNCs) and Neural Net Processors, all of our other chip technologies, as well as suitable sensors and actuators can be utilized.

 

   
Neural Net in a Package™ (NNiP™)
Das neuronale Netz in einem Gehäuse==Neural-Net-in-a-Package (NNip) bezeichnet die Implementierung eines neuronalen Netzes als ein Ein-Gehäuse-System. Dazu können usnere neuronalen Netzker- ne und neuronalen Netzprozessoren, alle unsere anderen Chiptech- nologien, als auch geeignete Sensoren und Aktuatoren verwendet werden.
The Neural Net in (a) Package (NNiP) denotes the implementation of a neural network as a System in (a) Package (SiP). For this, our Neural Net Cores (NNCs) and Neural Net Processors, all of our other chip technologies, as well as suitable sensors and actuators can be utilized.

 

   
Neural Net 3D Core™ and Chip™/Processor (N3DSC™)
Der neuronale netzbasierte 3-dimensionale Systemkern und der neu- ronale netzbasierte 3-dimensionale Prozessor basieren auf der Kombi- nation von unserem neuronalen Netzkern und unserem neuronalen Netzprozessor mit unserem 3D-Rechenprozessor.
The Neural Net 3D Core and the Neural Net 3D Processor are based on the combination of our Neural Net Core (NNC) and our Neural Net Processor with our 3D Computing Chip.

 

   
Neural Net 3D System on a Chip™ (NN3DSoC™)
Ein neuronales netzbasiertes 3-dimensionales Ein-Chip-System== Neural-Net-3D-System-on-a-Chip (NN3DSoC) kann aufgrund der Ähnlichkeit wie ein sogenannter 3D-Ein-Chip-Server==3D-Server-on- a-Chip (3DSoC) konstruiert werden und eine normale zentrale Pro- zessoreinheit==Central-Processing-Unit (CPU), einen neuronalen Netzkern, neuronalen Netzprozessor oder/und neuronales Netz auf einem Chip mit einem aufgesetzten Chip besitzen, der die Funtion eines dynamischen, wahlfreien Arbeitsspeichers/Direktzugriffsspeich- ers==Dynamic-Random-Access-Memory (DRAM) oder/und einer optionalen ladungsträgergekoppelten Schaltung==Charge-Coupled-Device (CCD) hat.
A Neural Net 3D System on (a) Chip (NN3DSoC) can be constructed like a so-called 3D Server on (a) Chip (3DSoc) due to the similarity and feature a common Central Processing Unit (CPU), a Neural Net Core (NNC), a Neural Net Processor, or/and a Neural Net on (a) Chip (NNoC) with a chip attached on top of it, which has the functionality of a Dynamic Random Access Memory (DRAM) chip or/and an opt- ional Charge Coupled Device (CCD).

 

   
Neural Net 3D System in a Package™ (NN3DSiP™)
Ein neuronales netzbasiertes 3-dimensionales Ein-Gehäuse-System== Neural-Net-3D-System-in-a-Package (NN3DSiP) kann aufgrund der Ähnlichkeit wie ein sogenannter 3D-Ein-Gehäuse-Server==3D-Ser- ver-in-a-Package (3DSiP) konstruiert werden, das eine normale zen- trale Prozessoreinheit==Central-Processing-Unit (CPU), einen neuro- nalen Netzkern, einen neuronalen Netzprozessor, ein neuronales netzbasiertes Ein-Chip-System oder/und neuronales netzbasiertes 3-dimensionales Ein-Chip-System besitzt.
A Neural Net 3D System in (a) Package (NN3DSiP) can be construct- ed like a so-called 3D Server in (a) Package (3DSoc) due to the similarity and feature a common Central Processing Unit (CPU), a Neural Net Core (NNC), a Neural Net Processor, a Neural Net on (a) Chip (NNoC), or/and a Neural Net 3D System on (a) Chip (NN3DSoC).

 

   
Neural Wiser Core™ and Neural Wiser Chip™/Processor (NWC™) 23.February.2013
Der neuronale Wiser-Kern==Neural-Wiser-Core (NWC) und der neuro- nale Wiser-Prozessor==Neural-Wiser-Processor integrieren die Kon- zepte von unserem neuronalen Netzkern und unserem neuronalen Netzprozessor mit unserem Wiser-Core (WiserC) und unserem Wiser-Prozessor. Die besondere Eigenschaft des NWCs ist, dass er weitaus schneller als seine natürlichen Vorbilder arbeitet.
The Neural Wiser Core (NWC) and the Neural Wiser Processor inte- grate the concepts of our Neural Net Core and our Neural Net Proc- essor with our Wiser Core (WiserC) and our Wiser Processor. The special feature of the NWC is, that it works much faster than its natural models.

 

   
Neural Wiser on a Chip™ (NWoC™) 23.February.2013
Der neuronale Wiser auf einem Chip==Neural-Wiser-on-a-Chip (NWoC) bezeichnet die Implementierung eines neuronalen Netzes auf einem Chip als einen Ein-Chip-Wiser. Dazu können unsere neuronalen Wiser-Kerne und neuronalen Wiser-Prozessoren, alle unsere anderen Chiptechnologien, als auch geeignete Sensoren und Aktuatoren ver- swendet werden.
The Neural Wiser on (a) Chip (NWoC) denotes the implementation of a Neural Net on (a) Chip (NNoC) as a Wiser on (a) Chip (WoC). For this, our Neural Wiser Cores and Neural Wiser Processors, all of our other chip technologies, as well as suitable sensors and actuators can be utilized.

 

   
Neural Wiser in a Package™ (NWiP™) 23.February.2013
Der neuronale Wiser in einem Gehäuse==Neural-Wiser-in-a-Package (NWiP) bezeichnet die Implementierung eines neuronalen Netzes in einem Gehäuse als einen Wiser in einem Gehäuse. Dazu können unsere neuronalen Wiser-Kerne und neuronalen Wiser-Prozessoren, alle unsere anderen Chiptechnologien, als auch geeignete Sensoren und Aktuatoren verwendet werden.
The Neural Wiser in (a) Package (NWiP) denotes the implementation of a Neural Net in (a) Package (NNiP) as a Wiser in (a) Package (WiP). For this, our Neural Wiser Cores and Neural Wiser Processors, all of our other chip technologies, as well as suitable sensors and actuators can be utilized.

 

   
Neural Net Graphene Core™ and Chip™/Processor (NNGC™) 15.April.2013
Die neuronalen netzbasierten, graphenbasierten Kerne und Prozesso- ren vereinigen unsere graphenbasierten Kerne und Prozessoren mit unseren neuronalen Netzkernen und neuronalen Netzprozessoren.
The neuronal net-based, graphene-based cores and processors unite our graphene-based cores and processors with our Neural Net Cores (NNCs) and Neural Net Processors.

 

   
Superconducting Core and Processor/Chip 2001
Supraleitende Systemkerne oder Prozessoren besitzen überragende Eigenschaften im Vergleich zu ihren normalen Ausführungen, wie zum Beispiel extrem hohe Rechengeschwindigkeit und äußerst niedriger Stromverbrauch. Varianten unserer supraleitenden Systemkerne ba- sieren auch auf unserer Technologie von Raumtemperatursupraleitern und verwenden speicherresistive Systemelemente, wie Speichertran- sistoren/Memistoren und Speicherwiderstände/Memristoren, genauso wie Phasenwechselspeicherelemente. Herausragendes Modell sind unsere supraleitenden neuronalen Netzkerne und neuronalen Netz- prozessoren.
Superconductive cores or processors have superior features in com- parison to their standard versions, like for example extremely high computing speed and very low electric power consumption. Variants of our superconductive kernels are also based on our technology of room-temperature superconductors, and apply memristive system elements like memory transistors/memistors and memory resistors/ memristors, as well as phase-change memory elements. Outstand- ing models are our superconductive neural net cores or neural net processors.

 

   
Superconducting Neural Net Core and Chip/Processor™ (SNNC™)
Der supraleitende neuronale Netzwerkkern oder -prozessor basiert auf der Integration eines supraleitenden Systemkerns oder Prozes- sors und einem Neuronalen Netzwerkkern oder -Chip (NNC), wie z. B. der Neuronale Wiser-Kern und Neuronale Wiser-Chip (NWC). Ein herausragendes Modell ist die Version "Uncle Bob" mit HyperCube-Geometrie Eigenschaft.
The superconductive neural net core or processor is based on the integration of a superconductive core or processors and a Neural Net Core or Chip (NNC), like e.g. the Neural Wiser Core and Neural Wiser Chip (NWC). An outstanding model is the "Uncle Bob" version with HyperCube geometry feature.

 

   
     
     

 

Wireless Supercomputer (WiSer™) 23.March.2012
Das Konzept des kabellosen Superrechners==Wireless Supercompu- ter (WiSer) besteht in seiner einfachsten Form aus einem kabellosen (lokalen) Kommunikations-/Netzwerksystem und einer beliebigen An- zahl an Rechenknoten und Speicherknoten. Jeder dieser Rechenkno- ten und Speicherknoten ist ein einzelnes eingebettetes Mikro- oder Nanosystem, das wenigstens eine kabellose Kommunikations-/Netz- werkschnittstelle und einen Chip für die Datenverarbeitung bezie- hungsweise die Datenspeicherung besitzt. Der grundlegende Wiser kann durch ein kabelloses Energieübertragungssystem für die Ener- gieversorgung der einzelnen Systemknoten zu einem puren WiSer und durch informationsverarbeitende und -speichernde als auch elektro- magnetische Netz- (werk)knoten, insbesondere Funkknoten und En- ergieübertragungsknoten, und weiteren Systemknoten mit speziellen Funktionen erweitert werden.

Ein WiSer lässt sich in mehreren Schritten aufbauen, deren Reihen- folge variieren kann:
1. In der ersten Ausbaustufe besitzt ein WiSer nur eine kabellose Verbindung zwichen den einzelnen Rechen- und Speicherknoten und der Systemperipherie.
2. In der zweiten Ausbaustufe besitzt ein WiSer auch eine kabellose Systemverbindungsarchitektur für die verschiedenen Komponenten eines einzelnen Rechen- und Speicherknotens, die auf den Prinzipien der Punkt-zu-Punkt- und Punkt-zu-Mehrpunkt-Verbindung basieren kann.
3. In der dritten Ausbaustufe besitzt ein WiSer sogar eine kabellose Energieübertragung, die zum Beispiel auf dem Konzept der gekoppel- ten, resonaten Induktion basieren kann.
4. In der vierten Ausbaustufe werden das kabellose Kommunikations- /Netzwerksystem und das kabellose Energieübertragungssystem zu einem System integriert.
5. In der fünften Ausbaustufe können das integrierte kabellose Kom- munikations-/Netzwerk- und Energieübertragungssystem zumindes- tens mit den Systemen der Rechenknoten und der Speicherknoten intergriert werden.
6. In der sechsten Ausbaustufe würde die Integration mit dem Kon- zept des Quantenrechners vorteilhaft sein.
7. In der siebten Ausbaustufe oder bereits in einer vorherigen Aus- baustufe kann die von den hoch getakteten Prozessoren der Rech- enknoten und den Maser- und Laserkomponenten der Systemknoten emittierte elektromagnetische Strahlung durch unsere elektromagne- tischen Strahlenkollektoren, insbesondere dem Röntgenstrahlenkol- lektor, dem UV-Strahlenkollektor und dem IR-Strahlenkollektor, zur Hitzereduktion und Energierückgewinnung aufgefangen werden, wozu sie auch bei unserer Technologie Cool Chip und dem digitalen Lichtre- chnen verwendet werden.
8. In der achten Ausbaustufe ist dann sogar der Energieverbraucher WiSer mit dem Energieerzeuger, wie etwa einem unserer Fusionsreak- toren, zu einem integrierten System zusammenzuführen. Somit erhält man unser plasmatisches Rechnen. Die von einem plasmatischen WiSer emittierte elektromagnetische Strahlung kann auch durch un- sere elektromagnetischen Strahlenkollektoren zur Energiegewinnung, Hitzereduktion und Energierückgewinnung aufgefangen werden.
9. In weiteren Ausbaustufen kann durch weitere Integration sowie raffiniertere Entwürfe der Rechenknoten, der Speicherknoten und des Gesamtsystems eine zukünftige Generation von diesem WiSer-Kon- zept entwickelt werden.

Ein einzelner Systemknoten oder ein gesamter WiSer kann auch durch einen Solarkollektor sowie durch die Nutzung anderer geeig- neter eigener Energiequellen mit Energie versorgt werden.

Das WiSer-Konzept bietet viele Vorteile, die nicht mit solchen Com- putersystemen erreicht werden können, die auf den üblichen Kompo- nenten und kabelbasierten Verbindungen basieren. So sind Datenbus- se mit einer Breite im Gbit-Bereich und Taktfrequenzen im Bereich von 100 GHz, THz (1,000 GHz), PHz (1,000,000 GHz) oder vielleicht sogar noch höher möglich. Zudem werden durch einen richtig kon- struierten WiSer die benötigte Zeit und Arbeit für das Routing und die Weiterleitung von Daten zu anderen Systemknoten drastisch reduziert, sodass sie im Betrieb praktisch sogar nicht mehr beachtet werden müssen. Als Ergebnis wird durch die Hardware und die Soft- ware die Leistungsfähigkeit maximiert und die Anwendbarkeit flexibili- siert.

Des Weiteren erhalten wir durch diesen Systementwurf die Möglich- keit einen WiSer in einem hochleistungsfähigen kabellosen Ad-hoc-Netzwerkmodus zu betreiben. Wenn man in solch einem Ad-hoc-Netzwerk die Systemknoten als ein Schwarm ansieht, dann kann aufgrund der Emergenz der WiSer im Besonderen Schwarmintelligenz und im Allgemeinen Künstliche Intelligenz (KI) II entwickeln. Wegen dem Fakt, dass ein WiSer auf der Logik basiert und somit auch die Entwicklung der KI I zulässt, erhält man durch die Hinzunahme der KI II auch die Möglichkkeit, dass ein WiSer die KI III entwickelt.

Außerdem können durch eine geschickte Anordnung der Rechen- und Speicherknoten, z. B. als eine 3D-Struktur wie einem Würfel, einem Zylinder, einem Torus oder einer Kugel, Interferenzen und der von den Systemknoten emittierten elektromagnetischen Strahlung vor- teilhaft genutzt werden. In diesem Zusammenhang haben wir auch mit einer detailierteren Skizze der anderen neuen Rechnertechnologie des digitalen Lichtrechnens beschrieben, wie diese Nutzung der In- terferenzen als auch der elektromagnetischen Strahlung realisiert werden kann.

Durch die Nutzung von Interferenzen werden Ergebnisse wie mit einem Quantenrechner sofort berechnet, sodass zum Beispiel große Zahlen in O(2) addiert werden können, also in zwei signifikanten Rechenschritten.
Als anschauliches Beispiel kann man sich einen Zylinder oder eine Kugel mit einer Hüllle vorstellen, die aus Rechenknoten und Speicher- knoten besteht. Jeder Systemknoten besitzt einen gerichteten elek- tromagnetischen Strahler, wie eine Funkeinheit oder wie in diesem Beispiel ein Laser-Modul, mit dem jeder auf z. B. einer Hälfte der Kugel plazierte Rechenknoten Daten zu einem oder allen Rechenkno- ten übertragen kann, der/die auf der anderen Hälfte der Kugel pla- ziert ist/sind. Die resultierende 'Laser-Show' stellt auch eine aktuelle Datenverarbeitung dar, die sozusagen in der Luft getätigt wird. Be- sitzt jeder Systemknoten auch einen Photosensor, sodass er diese 'Laser-Show', diese Resultate einer 'Berechnung in der Luft' oder besser gesagt diese Interferenzen der verarbeiteten Daten in ihrer Gesamtheit oder nur in bestimmten Bereichen zur Weiterverarbeitung aufnehmen kann, dann wird der ganze Zyinder oder die ganze Kugel mit dem eingeschlossenen Bereich zu einem Rechnersystem.

Natürlich wird ein WiSer genauso wie unsere andere Hardware mit unseren Hochtechnologischen BetriebsSystemen (HBS) OntoLix and OntoLinux betrieben, sodass durch das Ablaufenlassen eines Calibers der gesamte Superrechner eine Singularität im Einklang mit den Ge- setzen des sichtbaren Universums wird.

The concept of the Wireless Supercomputer (WiSer) in its simplest form is based on a wireless (local area) communication/network sy- stem and an arbitrary number of compute nodes and memory nodes. Each of these compute nodes and memory nodes is an embedded micro- or nanosystem, which has at least a wireless communication/ network interface and a chip for the processing respectively the storing of data. The basic WiSer can be extended with a wireless power link system for the power support of the system nodes to a pure WiSer, and with network nodes, electromagnetic nodes, specif- ically radio nodes and power nodes, and further system nodes with special functions.

A WiSer can be build up in several steps, which can have a varying order:
1. In the first expansion stage a WiSer has only a wireless inter- connect between the single compute and memory nodes, and the system's periphery.
2. In the second expansion stage a WiSer features also a wireless system bus architecture for the different components of a compute node, that can be based on the principles of the point-to-point and point-to-multipoint connection.
3. In the third expansion stage a WiSer even has a wireless power link, that could be based on the concept of the coupled, resonant induction for example.
4. In the fourth expansion stage the wireless (local area) communic- ation/network system and the wireless power link system are inte- grated to one system.
5. In the fifth expansion stage at least the integrated wireless (local area) communication/network and power link system can be inte- grated with the systems of the compute nodes and the memory nodes.
6. In the sixth expansion stage the integration with the concept of the quantum computer would be advantageous.
7. In the seventh expansion stage or in a previous expansion stage the electromagnetic radiation emitted by the highly clocked process- ors of the compute nodes and the Maser and Laser components of the system nodes can be collected by our electromagnetic radiation collectors, especially our X-Ray Collector, UV-Ray Collector, and IR-Ray Collector, for heat reduction and waste energy recovery, for which they are also applied with our Cool Chip technology and the also new computing technology called digital light computing.
8. In the eighth expansion stage even the power consumer WiSer is combined with the power producer, like e.g. one of our fusion react- ors, to an integrated system. In this way our Plasmatic Computing is reached. The electromagnetic radiation emitted by a plasmatic WiSer can also be collected by our electromagnetic radiation collectors for power generation, heat reduction, and waste energy recovery.
9. In further expansion stages a future generation of this WiSer con- cept can be developed by further integration as well as more soph- isticated designs of the compute nodes, memory nodes, and the overall system.

A single system node or a whole WiSer can also be powered by a solar panel as well as by the use of other suitable own power sources.

The WiSer concept offers many advantages, that are not achievable with computer systems based on common components and wire based connections. Data busses with a width in the Gbit range and clock frequency in the range of 100 GHz, THz (1,000 GHz), PHz (1,000,000 GHz) or eventually even higher are possible can be made possible. Additionally, with a correctly constructed WiSer the time and work needed for the routing and the forwarding of data to other system nodes are reduced drastically, so that practically they even need not to be considered while in operation. As result, the perform- ance is maximized and the practicability is made more flexible by the hardware and the software.

Moreover, with this system design we get the possibility to operate a WiSer in a very high performing wireless ad-hoc network mode. If in this ad-hoc network the system nodes are regarded as a swarm, then the WiSer can develop in particular swarm intelligence and in general Artificial Intelligence (AI) II due to the emergence. Due to the fact that a WiSer is based on logics and hence permits the dev- elopment of the AI I, the possibility that a WiSer develops the AI III is also given with the addition of the AI II.

Furthermore, by a clever arrangement of the compute and memory nodes, for example as a 3D structure like a cube, a cylinder, a torus or a sphere, interferences and the electromagnetic radiation emitted by the system nodes can be used advantageously. In this relation, we also have described with a more detailed sketch of the digital light computing how the utilization of the interferencies and the el- ectromagnetic radiation can be realized.

By the utilization of the interference results are instantly computed like with a quantum computer, so that for example large numbers can be added in O(2), which means in two significant processing steps.
As an illustrative example one can imagine a cylinder or a sphere with a hull, that consists of compute nodes and memory nodes. Each system node features a directed electromagnetic radiation unit, like a radio unit or as in this example a laser module, with which each compute node placed on e.g. one half of the sphere can transmit data to one or all compute nodes placed on the other half of the sphere. The resulting 'laser show' also represents an actual data processing, which is done in the air so to say. If every system node has also a photosensor, so that it can receive this 'laser show', these results of a 'computation in the air' or better said these inter- ferences of the processed data at large or only in specific areas for further processing, then the whole cylinder or sphere with the en- closed area becomes a computer system.

Of course, a WiSer is operated with our Hightech Operating Systems (HOS) OntoLix and OntoLinux, exactly like our other hardware, so that by running our Caliber the whole supercomputer becomes a singularity in harmoniy with the laws of the observable universe.

 

   
Mirror Hub™ 7.January.2012
Der Spiegelnetzknoten==Mirror-Hub is eine Art Spiegel für elektroma- gnetische Strahlen, die für die Datenübertragung zwischen Rechen- knoten von Supercomputern/Hochleistungsrechnersystem==High- Performance-Computing-System (HPC-System), wie unseren kabel- losen Supercomputern==Wireless Supercomputers (WiSers) und Lichtrechnern, genutzt werden, die auf der Anwendung von Maser- und Lasertechnologien basieren. Durch die Anwendung der Reflektion kann der Raum in einer optimierten Weise auf Kosten einer etwas längeren Signallaufzeit genutzt werden, falls Interferenz vermieden werden soll oder muss. Zum Beispiel ermöglicht der Spiegelnetzkno- ten radiale/sternförmige Computersystemkonfigurationen, die im in- terferenzlosen Betriebsmodus effizienter sind als Konfigurationen, die nur aus einzelnen zylindrischen Computersystemen bestehen. Spezi- elle Versionen eines Spiegelnetzknoten können sogar Schaltfunktio- nen besitzen, die auch durch elektromagnetische Strahlen gesteuert werden. Die Technologie ist auch gemeinsam mit kabelbasierten oder kabellosen Datenbus- und Netzwerklösungen einsetzbar.
The Mirror Hub is somekind of a mirror for electromagnetic rays, that are used for the data transmission between computing nodes of a supercomputer/High-Performance Computing (HPC) system like our Wireless Supercomputers (WiSers) and Licht/Optical/Photonic Comp- uters, which is based on the utilization of maser and laser technolo- gies. By the application of reflection the space can be used in an optimized way for the cost of a slightly longer signal transit time, if interference should or must be avoided. For example, the Mirror Hub enables radial/star-shaped computer system configurations, which are more efficient in the non-interferencing operation mode than configurations made up of single cylindrical computer systems. Spec- ial version of a mirror hub can even have switching functions, which are controlled as well by electromagnetic rays. The technology is also usable together with cable-based or wireless data bus and network solutions.

 

   
     
Light-Field Sensor™ 5.June.2012
Einfach beschrieben sind unsere Feldsensoren, wie der Lichtfeldsen- sor, 3-dimensionale Chips, die im Fall der elektromagnetischen Wellen wie eine ladungsgekoppelter Schaltung==Charge-Coupled Device (CCD) arbeiten. Im Vergleich zu einem CCD-Sensorchip mit einer zu- sätzlichen Schicht kleiner Linsen sind die Vorteile dieser neuen Feld- sensoren die höhere Leistungsfähigkeit bei geringerem Energiever- brauch, die wesentlich schnellere Verarbeitung der von den einfallen- den Wellen produzierten Informationen und die so gewonnene Mög- lichkeit die Gerätetiefen von entsprechenden Kameras und Mikrofo- nen um mehr als zwei Drittel deutlich zu verringern. Zudem sind we- gen der Tatsache, dass auf der einen Seite ladungsgekoppelter CCDs für die Datenspeicherung entwickelt wurden und auf der anderen Seite die von den neuen Geräten eingefangenen Informationen über physikalische Gegebenheiten als Datenstrukturen repräsentiert wer- den, weitere Bereiche von Optimierungen und Anwendungen offen- sichtlich.
Simply described, our field sensors, like the light-field sensor, are 3-dimensional chips that in the case of electromagnetic waves work like a Charge-Coupled Device (CCD). Compared to a CCD sensor chip with an additional layer of small lenses, the advantages of these new field sensors are a higher performance with a lower power con- sumption, the considerably faster processing of informations of the captured waves, and the possibility gained in this way to reduce the device depths of corresponding cameras and microphones by more than two thirds. Furthermore, due to the fact that on the one hand CCDs have been developed for the data storage and on the other hand the captured informations about physical conditions are repre- sented as data structures by the new devices, further areas of opti- mizations and applications are obvious.

 

   
Ray-Field Sensor™ 7.June.2012
Unsere Strahlenfeldsensoren sind aufgebaut und funktionieren wie Lichtfeldsensoren, aber sie können auch elekromagnetische Wellen mit anderen Frequenzen als sichtbares Licht erfassen. Zu ihren An- wendungsfeldern zählen zum Beispiel die Künste, die Wissenschaften, die Medizin sowie das Ingenieurswesen. Spezielle Anwendungen sind Bauteile von Maschinen wie Vehikel und Roboter, Computer, Konsu- mentenelektronikgeräte und die 2D- und 3D-Infrarot-/Wärmebildka- meras. Zudem kann unser Wellenfeldrechnen auch alleine oder in Ver- bindung mit anderen Systemen genutzt werden, wie die Strahlenfeld- sensoren im Bereich der Positionierung und Navigation, zum Beispiel als eine Ergänzung für satellitengestützte Positionierungs- und Navi- gationssysteme oder unser MultiGPSystem, aber auch als ein Reser- vesystem für den Fall das Signale anderer Positionierungs- oder Navi- gationssysteme gestört, blockiert oder nicht zu erreichen sind. Ein weiteres Anwendungsfeld sind kinetische Benutzerschnittstellen, wie unsere Technologien TouchWave und kinetisches Feld.
Our ray-field sensors are constructed and functioning like light-field sensors, but can also capture electromagnetic waves with other frequencies than visible light. To their fields of application belong for example the arts, the sciences, the medicines, and the engineer- ing. Specific applications are components of machines, like vehicles and robots, computer, consumer electronics, and the 2D und 3D in- fra-red/thermographic/thermal imaging cameras. In addition to this, our wave-field computing can be used alone and in combination with other systems, like the ray-field sensors in the field of navigation as well, for example as a complement for satellite-based positioning and navigation systems or our MultiGPSystem, but also as a back-up sy- stem in case that signals of other positioning or navigation signals are disturbed, jammed, or not available at all. A further field of applications are kinetic user interfaces, like our technologies TouchWave and KineticField.

 

   
Sound-Field Sensor™ 7.June.2012
Unsere Schallfeldsensoren sind aufgebaut und funktionieren wie die Lichtfeldsensoren oder die Strahlenfeldsensoren, aber erfassen hör- bare akustische Wellen anstatt elektromagnetische Wellen. Zu ihren Anwendungsfeldern zählen zum Beispiel die Künste, die Wissenschaf- ten, wie etwa die Medizin und das Ingenieurswesen und die gesell- schaftlichen Dienste, insbesondere Feuerwehr-, Rettungs- und Not- falldienste als auch Polizei und Militär. Spezielle Anwendungen sind Bauteile von Maschinen wie Vehikel und Roboter, Computer und Un- terhaltungselektronik sowie die 2D- und 3D-Mikrofone, insbesondere natürlich unsere Schallfeldmikrofone.
Our sound-field sensors are constructed and working like the light- field sensors or the ray-field sensors, but capture audible acoustic waves instead of electormagnetic waves. To their fields of applicat- ion belong for example the arts, the sciences, as e.g. the medicines and the engineering, and social services, especially fire, rescue, and emergency services, and also police and military. Specific applicat- ions are components of machines, like vehicles and robots, comput- ers, and consumer electronics, as well as 2D und 3D microphones, specifically our sound-field microphones of course.

 

   
Wave-Field Sensor™ 6.June.2012
Unsere Wellenfeldsensoren besitzen den Aufbau und die Funktions- weise wie Schallfeldsensoren, aber erfassen auch mechanische Wel- len mit anderen Frequenzen als auditiv wahrnehmbare akustische Wellen/Geräusche. Zu ihren Anwendungsfeldern zählen zum Beispiel die Künste, die Wissenschaften, wie etwa die Medizin und das Inge- nieurswesen und die gesellschaftlichen Dienste, insbesondere Feuer- wehr-, Rettungs- und Notfalldienste als auch Polizei und Militär. Be- sondere Anwendungen sind Bauteile von Maschinen wie Vehikel und Roboter, Computer und Konsumentenelektronikgeräte und die 2D- und 3D-Mikrofone, insbesondere unsere Wellenfeldmikrofone.
The wave-field sensors have the construction and the way of funct- ioning like sound-field sensors, but capture also mechanical waves with other frequencies than audible acoustic waves/sound. To their fields of application belong for example the arts, the sciences, as for example the medicines and the engineering, and the social services, especially fire, rescue, and emergency services, as well as police and military. Specific applications are components of machines, like vehicles and robots, computer, and consumer electronics, and the 2D and 3D microphones, specifically our wave-field microphones.

 

   
Light-Field Processing Unit 15.June.2012
Die Lichtfeldverarbeitungs-/prozessoreinheit==Light-Field Processing/ Processor Unit (LFPU or LPU) wird hauptsächlich in Computergrafik- karten oder anderen Hardwarebeschleunigungskarten für die Unter- stützung des Lichtfeldrechnens, der lichtfeldbasierten Synthese== Light-Field-Based Rendering sowie dem photonischen Rechnens als auch in Lichtfeldkameras genutzt.
The Light-Field Processing/Processor Unit (LFPU or LPU) is primarily used in computer graphic cards or other hardware acceleration cards for the support of the light-field computing, the light-field-based rendering, and also the photonic computing, as well as in light-field cameras.

 

   
Ray-Field Processing Unit 15.June.2012
Die Strahlenfeldverarbeitungs-/prozessoreinheit==Ray-Field Process- ing/Processor Unit (RFPU or RPU) wird hauptsächlich in Computergra- fikkarten oder anderen Hardwarebeschleunigungskarten für die Un- terstützung des Strahlenfeldrechnens, der strahlenfeldbasierten Syn- these==Ray-Field-Based Rendering sowie dem photonischen Rech- nens als auch in Strahlenfeldkameras genutzt.
The Ray-Field Processing/Processor Unit (RFPU or RPU) is primarily used in computer graphic cards or other hardware acceleration cards for supporting the ray-field computing, the ray-field-based render- ing, and also the photonic computing, as well as in ray-field cam- eras.

 

   
Sound-Field Processing Unit 14.June.2012
Die Schallfeldverarbeitungs-/prozessoreinheit==Sound-Field Process- ing/Processor Unit (SFPU or SPU) wird hauptsächlich in Computer- sound-/audiokarten oder anderen Hardwarebeschleunigungskarten für die Unterstützung des Schall(wellen)feldrechnens, der schall- feldbasierten Synthese==Sound-Field-Based Rendering als auch in Schallfeldmikrofonen genutzt.
The Sound-Field Processing/Processor Unit (SFPU or SPU) is mainly used in computer sound/audio cards or other hardware acceleration cards for supporting the sound-field computing, the sound-field-bas- ed rendering, as well as in sound-field microphones.

 

   
Wave-Field Processing Unit 14.June.2012
Die Wellenfeldverarbeitungs-/prozessoreinheit==Wave-Field Process- ing/Processor Unit (WFPU or WPU) wird hauptsächlich in Computer- erweiterungskar- ten wie Hardwarebeschleunigungskarten für die Un- terstützung des Wellenfeldrechnens, der wellenfeldbasierten Synthe- se==Wave-Field- Based Rendering als auch in Wellenfeldmikrofonen genutzt.
The Wave-Field Processing/Processor Unit (WFPU or WPU) is mainly used in computer expansion cards like hardware acceleration cards for supporting the wave-field computing, the wave-field-based rend- ering, as well as in wave-field microphones.

 

   
Light-Field Emitter™/Light-Field Radiator™ 16.November.2012
Die Lichtfeldlampe ist ein grundlegendes Bauteil, das ein Lichtfeld mit einstellbaren Frequenzen und Helligkeiten ausstrahlt. Anwendungsfel- der sind zum Beispiel die lichtfeldbasierte Synthese==Light-Field- Based Rendering, das photonische Rechnen als auch die Lichtfeld- kameras und Lichtfeldprojektoren.
The Light-Field Lamp is a basic component that emits a light-field with adjustable frequencies and brightnesses. Fields of application are for example the light-field-based rendering, the photonic computing, and also the light-field cameras and light-field projectors.

 

   
Ray-Field Emitter™/Ray-Field Radiator™ 16.November.2012
Der Strahlenfeldradiator ist ein grundlegendes Bauteil, das ein Strah- lenfeld mit einstellbaren Frequenzen und Intensitäten ausstrahlt, die in einem anderen Bereich als dem Frequenzbereich unserer Lichtfeld- emitter liegen. Anwendungsfelder sind zum Beispiel die strahlenfeld- basierte Synthese==Ray-Field-Based Rendering, das photonische Rechnen sowie die Strahlenfeldkameras, aber auch kinetische Benutzerschnittstellen, wie unsere Technologien TouchWave und kinetisches Feld.
The Ray-Field Radiator is a basic component that radiates a ray-field with adjustable frequencies and intensities, which lay in a different range than the frequnency range of our Light-Field Emitter. Fields of application are for example the ray-field-based rendering, the pho- tonic computing, and also the ray-field cameras, but also kinetic user interfaces, like our technologies TouchWave and KineticField.

 

   
Sound-Field Actuator™/Sound-Field Resonator™ 16.November.2012
Der Schallfeldresonator ist ein essentielles Gerätebauteil, das akusti- sche Schallfelder mit einstellbaren Frequenzen und Lautstärken er- zeugt. Der Schallfeldresonator kann für die schallfeldbasierte Syn- these==Sound-Field-Based Rendering als auch für die Schallfeldmi- krofonen und die Schallfeldlautsprecher genutzt werden.
The Sound-Field Resonator is an essential device component that produces acoustic sound-fields with adjustable frequencies and volume. The Sound-Field Resonator can be applied for the sound-field-based rendering, as well as for the sound-field microphones and the sound-field speakers.

 

   
Wave-Field Actuator™/Wave-Field Resonator™ 16.November.2012
Der Wellenfeldresonator ist ein essentielles Bauteil für Geräte, das mechanische Wellenfelder mit einstellbaren Frequenzen und Inten- sitäten erzeugt. Der Wellenfeldresonator kann für die wellenfeld- basierte Synthese==Wave-Field-Based Rendering als auch für die Wellenfeldmikrofone und Wellenfeldlautsprecher genutzt werden.
The Wave-Field Resonator is an essential component of devices that produces mechanical wave-fields with adjustable frequencies and intensities. The Wave-Field Resonator can be applied for the wave- field-based rendering, as well as for the wave-field microphones and the wave-field speakers.

 

   
Neural Light-Field Detector™ (NLFD™) 23.February.2013
Der neuronale Lichtfelddetektor basiert auf der Integration unserer neuronalen Netzwerkkerne, -prozessoren und -systeme, inklusive unseren neuronalen 3D Systemkernen, Prozessoren und Systemen und unseren neuronalen Wiser-Kernen, -Prozessoren und -Systemen, mit unseren Lichtfeldsensor und unserem Lichtfeldprozessor.
The Neural Light-Field Detector is based on the integration of our Neural Net Cores, Processors, and Systems, inclusive our Neural 3D System Cores, Processors, and Systems, and our Neural Wiser Cores, Processors, and Systems with our wave-field sensor and wave-field processor.

 

   
Neural Ray-Field Detector™ (NRFD™) 23.February.2013
Der neuronale Strahlenfelddetektor basiert auf der Integration unserer neuronalen Netzwerkkerne, -prozessoren und -systeme, inklusive unseren neuronalen 3D Systemkernen, Prozessoren und Systemen und unseren neuronalen Wiser-Kernen, -Prozessoren und -Systemen, mit unseren Strahlenfeldsensor und unserem Strahlen- feldprozessor.
The Neural Ray-Field Detector is based on the integration of our Neural Net Cores, Processors, and Systems, inclusive our Neural 3D System Cores, Processors, and Systems, and our Neural Wiser Cores, Processors, and Systems with our ray-field sensor and ray-field processor.

 

   
Neural Sound-Field Detector™ (NSFD™) 23.February.2013
Der neuronale Schallfelddetektor basiert auf der Integration unserer neuronalen Netzwerkkerne, -prozessoren und -systeme, inklusive unseren neuronalen 3D Systemkernen, Prozessoren und Systemen und unseren neuronalen Wiser-Kernen, -Prozessoren und -Systemen, mit unseren Schallfeldsensor und unserem Schallfeldprozessor.
The Neural Sound-Field Detector is based on the integration of our Neural Net Cores, Processors, and Systems, inclusive our Neural 3D System Cores, Processors, and Systems, and our Neural Wiser Cores, Processors, and Systems with our sound-field sensor and sound-field processor.

 

   
Neural Wave-Field Detector™ (NWFD™) 23.February.2013
Der neuronale Wellenfelddetektor basiert auf der Integration unserer neuronalen Netzwerkkerne, -prozessoren und -systeme, inklusive unseren neuronalen 3D Systemkernen, Prozessoren und Systemen und unseren neuronalen Wiser-Kernen, -Prozessoren und -Systemen, mit unseren Wellenfeldsensor und unserem Wellenfeldprozessor.
The Neural Wave-Field Detector is based on the integration of our Neural Net Cores, Processors, and Systems, inclusive our Neural 3D System Cores, Processors, and Systems, and our Neural Wiser Cores, Processors, and Systems with our wave-field sensor and wave-field processor.

 

   
Neural Light-Field Emitter™ (NLFA™) 23.February.2013
Der neuronale Lichtfeldaktuator basiert auf der Integration unserer neuronalen Netzwerkkerne, -prozessoren und -systeme, inklusive unseren neuronalen Wiser-Kernen, -Prozessoren und -Systemen, mit unserem Lichtfeldemitter und unserem Lichtfeldprozessor.
The Neural Light-Field Actuator is based on the integration of our Neural Net Cores, Processors, and Systems, inclusive our Neural Wiser Cores, Processors, and Systems with our light-field emitter and our light-field processor.

 

   
Neural Ray-Field Emitter™ (NRFA™) 23.February.2013
Der neuronale Strahlenfeldaktuator basiert auf der Integration unserer neuronalen Netzwerkkerne, -prozessoren und -systeme, inklusive unseren neuronalen Wiser-Kernen, -Prozessoren und -Systemen, mit unserem Strahlenfeldemitter und unserem Strahlenfeldprozessor.
The Neural Ray-Field Actuator is based on the integration of our Neural Net Cores, Processors, and Systems, inclusive our Neural Wiser Cores, Processors, and Systems with our ray-field emitter and our ray-field processor.

 

   
Neural Sound-Field Actuator™ (NSFA™) 23.February.2013
Der neuronale Schallfeldaktuator basiert auf der Integration unserer neuronalen Netzwerkkerne, -prozessoren und -systeme, inklusive unseren neuronalen Wiser-Kernen, -Prozessoren und -Systemen, mit unserem Schallfeldaktuator und unserem Schallfeldprozessor.
The Neural Sound-Field Actuator is based on the integration of our Neural Net Cores, Processors, and Systems, inclusive our Neural Wiser Cores, Processors, and Systems with our sound-field actuator and our sound-field processor.

 

   
Neural Wave-Field Actuator™ (NWFA™) 23.February.2013
Der neuronale Wellenfeldaktuator basiert auf der Integration unserer neuronalen Netzwerkkerne, -prozessoren und -systeme, inklusive unseren neuronalen Wiser-Kernen, -Prozessoren und -Systemen, mit unserem Wellenfeldaktuator und unserem Wellenfeldprozessor.
The Neural Wave-Field Actuator is based on the integration of our Neural Net Cores, Processors, and Systems, inclusive our Neural Wiser Cores, Processors, and Systems with our wave-field actuator and our wave-field processor.

 

   
     
Light-Field-Based Rendering 10.June.2012
Die Synthese von einem Wellenfeld um ein einzelnes Lichtfeld zu ge- nerieren wurde bereits von uns beschrieben. Einen Schritt weiter geht die lichtfeldbasierte Synthese==light-field-based Rendering, die wie die 2D- und 3D-bildbasierten Rendering-Techniken funktioniert, aber anstatt 2D- beziehungsweise 3D-Bilder verwendet sie für das Rendering von 3D-Szenarien/Modellen die Datenstrukturen, die durch Lichtfeldsensoren oder Lichtfeldkameras aufgenommene Lichtfelder repräsentieren. Da jede einzelne Datenstruktur schon eine räumliche Szene repräsentiert, die von einer Position betrachtet wird, kann mit der lichtfeldbasierten Synthese noch einfacher, schneller, präziser und wirklichkeitsgetreuer als mit den anderen Techniken der gesamte Rauminhalt einer Szene synthetisiert werden, wodurch die resultie- rende Szene dann in 3 Dimensionen navigierbar und sogar in einer virtuellen Umgebung immersiv wird.
The synthesis of a wave-field for generating a single light-field has already been described by us. A step further goes the light-field- based rendering, which works like the 2D and 3D image-based rend- ering techniques, but instead of 2D respectively 3D images it uses for the rendering of 3D scenarios/models the datastructures, which represent light-fields that have been taken by light-field sensors or light-field cameras. Because each single datastructure already re- presents a spatial scene viewed from one position, the whole vol- umetric content of a scene can be rendered easier, faster, preciser, and more realistic with the light-field rendering than it is possible with other techniques, whereby the resulting scene becomes navig- able in 3 dimensions and even immersive in a virtual environment.

 

   
Ray-Field-Based Rendering 10.June.2012 or 15.July.2012
Die Synthese von einem Wellenfeld um ein einzelnes Lichtfeld zu ge- nerieren wurde bereits von uns beschrieben. Einen Schritt weiter geht die strahlenfeldbasierte Synthese==ray-field-based Rendering, die wie die 2D- und 3D-bildbasierten Renderingtechniken funktioniert, aber anstatt 2D- beziehungsweise 3D-Aufnahmen verwendet sie für das Rendering von 3D-Szenarien/Modellen die Datenstrukturen, die durch Strahlenfeldsensoren oder Strahlenfeldkameras aufgenommene Strahlenfelder repräsentieren. Da jede einzelne Datenstruktur schon eine räumliche Szene repräsentiert, die aus einer Richtung aufge- nommen wurde, ermöglicht die strahlenfeldbasierte Synthese noch einfacher, schneller, präziser und wirklichkeitsgetreuer als mit den anderen Techniken den gesamten Rauminhalt einer Szene zu synthe- tisieren, wodurch die resultierende Szene dann in 3 Dimensionen na- vigierbar und sogar in einer virtuellen Umgebung immersiv wird.
The synthesis of a wave-field for generating a single light-field has already been described by us. A step further goes the ray-field-bas- ed rendering, which works like the 2D and 3D image-based rendering techniques, but instead of 2D respectively 3D images it uses for the rendering of 3D scenarios/models the datastructures, which repres- ent ray-fields that have been taken by ray-field sensors or ray-field cameras. Because each single datastructure already represents a spatial scene seen from one direction, the whole volumetric content of a scene can be rendered easier, faster, preciser, and more realistic with the ray-field rendering than it is possible with other techniques, whereby the resulting scene becomes navigable in 3 dimensions and even immersive in a virtual environment.

 

   
Sound-Field-Based Rendering 10.June.2012
Die Synthese von einem Wellenfeld um ein einzelnes Schallfeld oder Lichtfeld zu generieren wurde bereits von anderen und uns beschrie- ben. Einen Schritt weiter geht die schallfeldbasierte Synthese== sound-field-based Rendering, die wie die 2D- und 3D-schallaufnahmebasierten Synthesetechniken funktioniert, aber anstatt 2D- beziehungsweise 3D-Aufnahmen verwendet sie für das Rendering von 3D-Szenarien/ Modellen die Datenstrukturen, die von Schallfeldmikrofonen oder Schallfeldsensoren aufgenommen wurden. Da jede einzelne Datenstruktur schon eine räumliche Szene repräsentiert, die aus einer Richtung empfangen wird, ermöglicht die schallbasierte Synthese noch einfacher, schneller, präziser und wirklichkeitsgetreuer als mit den anderen Techniken den gesamten Rauminhalt einer Szene zu synthetisieren, wodurch die resultierende Szene dann in 3 Dimensionen navigierbar und sogar in einer virtuellen Umgebung immersiv wird.
The synthesis of a wave-field for generating a single sound-field or light-field has already been described by others and us. A step fur- ther goes the sound-field-based rendering, which works like the 2D and 3D sound recording-based rendering techniques, but instead of 2D or 3D recordings it uses for the rendering of 3D scenarios/models the data-structures, which represent sound-fields that have been recorded by sound-field sensors or sound-field microphones. Because each single datastructure already represents a spatial scene received from one direction, the whole volumetric content of a scene can be rendered easier, faster, preciser, and with more realism with the sound-field rendering than it is possible by using other techniques, whereby the resulting scene becomes navigable in 3 dimensions and even immersive in a virtual environment.

 

   
Wave-Field-Based Rendering 10.June.2012
Die Synthese von einem Wellenfeld um ein einzelnes Schallfeld oder Lichtfeld zu generieren wurde bereits von anderen und uns beschrie- ben. Einen Schritt weiter geht die wellenfeldbasierte Synthese== wave-field-based Rendering, die wie die 2D- und 3D-tonaufnahme-basierten Synthesetechniken funktioniert, aber anstatt 2D- oder 3D-Aufnahmen verwendet sie für das Rendering von 3D-Szenarien/ Modellen die Datenstrukturen, die von Wellenfeldsensoren oder Wellen- feldmikrofonen aufgenommen wurden. Da jede einzelne Datenstruktur schon eine räumliche Szene repräsentiert, die aus einer Richtung empfangen wird, ermöglicht die wellenbasierte Synthese noch einfacher, schneller, präziser und wirklichkeitsgetreuer als mit den anderen Techniken den gesamten Rauminhalt einer Szene zu synthetisieren, wodurch die resultierende Szene dann in 3 Dimensionen navigierbar und sogar in einer virtuellen Umgebung immersiv wird.
The synthesis of a wave-field for generating a single sound-field or light-field has already been described by others and us. A step fur- ther goes the Wave-Field-Based Rendering, which works like the 2D and 3D sound recording-based rendering techniques, but instead of 2D or 3D recordings it uses for the rendering of 3D scenarios/models the datastructures, which represent wave-fields that have been recorded by wave-field sensors or wave-field microphones. Due to the fact that each single datastructure already represents a spatial scene received from one direction, the whole volumetric scene content can be rendered easier, faster, preciser, and with more realism with the wave-field rendering than it is possible by using other techniques, whereby the resulting scene becomes navigable in 3 dimensions and even immersive in a virtual environment.

 

   
     
Qudit Chip 14.July.2012
Der Qudit-Chip nutzt auch den höheren, n-dimensionalen Quantenraum, der auf dem Bahndrehimpuls/orbitalen angularen Impuls basiert, bekannt als Qudit, inklusive dem standardmäßigen zweidimensionalen Quantenraum, der auf dem Ruhesystem-/Eigendrehimpuls basiert, bekannt als Qubit, unsere unsere gedrehte Wellentechnologie, insbesondere die Phasenkonjugation, oder/und das adiabetische Quantenrechenprinzip. Der Qudit-Prozessor wird von unseren Hochtechnologie BetriebsSystemen (HBSn) und n-Dimensionalen BetriebsSystemen (nDOSn) OntoLix und OntoLinux angetrieben. Anwendungen sind zum Beispiel das Hochleistungs-/Superrechnen basierend z. B. auf den Techniken des Quantenausglühens/-abklingens und der künstlichen Intelligenz, die Netzwerkinfrastruktur, die mobile Quantenkryptografie und Qudit-Kryptografie, Qudit-Geld, die Machinensteuerung, insbesondere von Vehikeln und Robotern, und so weiter.
The Qudit Chip uses also the higher, n-dimensional quantum space based on the Orbital Angular Momentum (OAM), known as qudit, inclusive the standard two-dimensional quantum space based on the Spin Angular Momentum (SAM), known as qubit, and our Twisted Wave technology, specifically the phase conjugation, or/and the adiabatic quantum computing principle. The Qudit Processor is powered by our High-tech Operating Systems (HOSs) and n-Dimensional Operating Systems (nDOSs) OntoLix und OntoLinux. Applications are for example the High-Performance Computing (HPC)/supercomputing based on e.g. the techniques of quantum annealing or artificial intelligence, the network infrastructure, the mobile quantum crypthography and qudit crypthography, Qudit money, the machine control, specifically of vehicles and robots, and so on.

 

   

 

Qudit Memory Chip 16.July.2013
Im Grunde ist der Qudit-Speicherchip ein Qudit-Chip, der für die Da- tenspeicherung optimiert ist. Wegen seiner quantenphysikalischen Eigenschaften ist der Qudit-Speicherchip in der Lage, riesige Mengen an Daten zu speichern, sodass ein System von der Größe eines normalen Serverschranks zum Beispiel den gesamten Index einer Internetzsuchmaschine speichern kann und dies sogar mit unserem originalen, einzigartigen Wissensgraphen obendrein, der auf dem Datenmodell unserer Ontologischen Systemarchitektur basiert.
Basically, the Qudit Memory Chip is a Qudit Chip that is optimized for the storage of data. By its quantum physical properties the Qudit Memory Chip is able to store huge amounts of data, so that a system of the size of a common server rack can store the whole index of an internet search engine even with our original, unique know- ledge graph based on the data model of our Ontologic System arch- itecture on top of it.

 

   

 

Qudit Cryptography 8.July.2013
Die Quditkryptografie nutzt den n-dimensionalen Quantenraum, der auf dem Bahndrehimpuls/orbitalen angularen Impuls basiert, neben den zweidimensionalen Quantenraum, der auf dem Eigendrehimpuls basiert, für die Kryptografie. Beispiele sind die hybride ququart-ko- dierte Quantenkryptografie, das gemeinsam mit den Verfahren des Quanten-Schlüsselaustausches und des Einmalschlüssels==One-Time-Pad- (OTP-)Verschlüsselung genutzt werden kann.
The Qudit Cryptography uses the n-dimensional quantum space bas- ed on the Orbital Angular Momentum (OAM) and the two-dimensional quantum space based on the Spin Angular Momentum (SAM) for the crypthography. An example is the hybrid ququart-encoded quantum cryptography, that can be used together with the methods of the Quantum Key Distribution (QKD) and the related One-Time Pad (OTP) encryption.

 

   

 

Mobile Quantum Cryptography 1998
Die mobile Quantenkryptografie nutzt die Prinzipien des zweidimen- sionalen Quantenraum, der auf dem Ruhesystem-/Eigendrehimpuls basiert, bekannt als Qubit, und den höheren, n-dimensionalen Quantenraum, der auf dem Bahndrehimpuls/orbitalen angularen Impuls basiert, bekannt als Qudit, unsere gedrehte Wellentechnologie oder/und das adiabetische Quantenrechenprinzip, das z. B. für das Qunatenausklingen/-ausglühen genutzt wird, um die Sicherheit von Kommunikation und Datenspeicherung zu steigern. Es kann als eine integrierte Schaltung realisiert werden, wie unserem Wiser-Prozessor beziehungsweise Qudit-Chip, zu einem System auf einen Chip (SoC), einem System in einem Paket (SiP) und einer bereits existierenden elektronischen Schaltung hinzugefügt werden, wie zum Beispiel einer Hauptplatine, einer SD-Karte und einem USB-Stift.
The Mobile Quantum Cryptography uses the principles of the two-dimensional quantum space based on the Spin Angular Momentum (SAM), known as qubit, and the higher, n-dimensional quantum space based on the Orbital Angular Momentum (OAM), known as qudit, our Twisted Wave technology, or/and the adiabatic quantum computing principle used for e.g. quantum annealing to heighten the the security of communiction and data storage. It can be realized as an Integrated Circuit like e.g. our Wiser processor respectively Qudit Chip, or added to a System on a Chip (SoC), a System in a Package (SiP), or an already existing electronic circuit, like for example a motherboard, an SD card, and a USB stick.

 

   

 

Qudit Money 16.July.2013
Qudit-Geld is ein Konzept für Banknoten, das auf den quantenphysikalischen Eigenschaften des Qudits basiert.
Qudit Money is a concept for bank notes based on the quantum physicscal properties of the qudit.

 

   
     
Mobile Light/Optical/Photonic Computing 5.May.2012
Unser Konzept des mobilen Lichtrechnens ist das erste Projekt, das das optische/photonische Rechnen, insbesondere das digitale Licht- rechnen, mit dem mobilen Rechnen verbindet. Die Technologie ist besonders faszinierend, da man z. B. im Falle eines Mobiltelefons, ei- nes Tablet-Computers, eines P@d-Computers, eines Ontoskops sowie eines Retinaprojektors oder eines Retinaskops im Grunde direkt mit dem Licht interagiert.
Our concept of the mobile light computing is the first project that connects the optical/photonic computing, specifically the digital light computing, with the mobile computing. This technology is particularly fascinating, because fundamentally one interacts directly with the light in the case of e.g. a mobile phone, a tablet computer, a p@d computer, an Ontoscope, as well as a Retina Projector or a Retina- scope.

 

   
Bare Light Operating System 8.October.2012
Das Blanke Licht BetriebsSystem (BLBS)==Bare Light Operating Sys- tem (BLOS) wurde von einem hochoptimierten Betriebssystem für Rechenknoten von HochPerformanz- und HochProduktivitätsRechen- Systemen (HP²R-Systemen) für den Gebrauch mit digitalen Lichtre- chnersystemen abgeleitet und ist das erste seiner Art.
The Bare Light Operating System (BLOS) is derived from a highly optimized operating system for computing nodes of High Performance and High Productivity Computing (HP²C) systems for the utilization with digital light computing systems, and is the first of its kind.

 

   
Digital Light/Optical/Photonic Computing 1998
Digitales Lichtrechnen ist ein Konzept des optischen/photonischen Rechnens, das elektronische Bauelemente eines Computersystems so weit wie möglich ersetzt und gleichzeitig die hierdurch sich ergeben- den neuen Möglichkeiten anwendet, wie die Interferenz der elektro- magnetischen Wellen. Demzufolge verwendet das digitale Lichtrech- nen optische Bauteile, vor allem aus Glas und Glasfaser gefertigte Linsen, Faseroptiken, Lichtwellenleiter, Laser und Faserlaser, opti- sche Schalter und Transistoren, Faserschalter sowie optische und faseroptische Sensoren, für die grundlegenden Komponenten, wie der Hauptprozessoreinheit, dem Kernspeicher und der Punkt-zu-Punkt- Verbindung von Systemkomponenten, und für die diskreten Kompo- nenten eines Computers. Außerdem werden optoelektronische Bau- elemente, inklusive ladungsgekoppelte Bauteile==Charge-Coupled Devices (CCD), wie z. B. CCD-Bildsensoren, als Schnittstelle zu dem elektronischen Rechnen verwendet. Die interne Taktfrequenz einer zentralen Lichtprozessoreinheit und einer Punkt-zu-Punkt-Verbindung zwischen Systemkomponenten liegt in dem Bereich von GHz (10^9, Mikrowellen) über THz (10^12, infrarotes Licht) und PHz (10^15, sichtbares Licht) bis mehr als 10 PHz (10^16) und die Breite der Systemkomponentenverbindung liegt im Bereich von Mbit bis Gbit, sodass neue Dimensionen mit z. B. Bandbreiten im Bereich von Ebit/s eröffnet werden.
Neben den Resonanztunneldioden/Interband-Tunnel-Dioden, insbe- sondere den Resonanztunnellaserdioden und den Resonanztunnelpho- todioden, können für die ersten Versionen auch weitere kostengüns- tige und seit einem Jahrzehnt sehr präzise hergestellte Module von elektrodenlosen Beleuchtungssystemen genutzt werden, wie der Ma- gnetron und der im Mikrowellenbereich resonante Drahtgeflechtkäfig neben einigen anderen nützlichen Komponenten einer Schwefellampe. Somit hat man günstige Lösungen für eine Mikrowellenquelle und einen Taktgenerator der zentralen Lichtprozessoreinheit (CLPU) mit einer Taktfrequenz von wenigstens 3 GHZ (3*10^9 Hz) über 300 GHz (3*10^11 Hz) bis zu 1 THz (10^12 Hz) und sogar einen effizienten Energieverbrauch mit Taktenergierückgewinnung sowie eine Bandbrei- te für die kabellose Datenübertragung im Bereich von mehreren 100 Gbit/s.
Digital light computing is a concept of the optical/photonic comput- ing that replaces electronic components of a computer system as far as possible, and simultaneously applies the new possibilities arising in this way, like the interference of the electromagnetic waves. Hence, the digital light computing applies optical components, specifically lenses, fused faser optics, optical fibers, laser and fiber lasers, opt- ical switches and transistors, fiber switches, as well as optical sens- ors and fiber optic sensors that are made out of glass and glass fib- er, for the basic components, like the main processing unit, the core memory and the point-to-point interconnection of system compon- ents, and for the discrete components of a computer. Moreover, op- toelectronic components, inclusive Charge-Coupled Devices (CCD), like for example CCD image sensors, are used as interface to the el- ectronic computing. The internal clock frequency of a Central Light-Processor Unit (CLPU) and a point-to-point interconnection between system components is in the range of GHz (10^9; microwaves) over THz (10^12; infrared light) to PHz (10^15; visible light), and the sy- stem components interconnection width lies in the range of Mbit to Gbit, so that new dimensions with e.g. bandwiths in the range of Ebit/s will be opened.
Besides the resonant tunneling diodes, specifically the resonant tu- nneling (diode) laser diodes and the resonant tunneling (diode) photo diodes, further cheap and since one decade very precisely manu- factured modules of electrodeless lighting systems can be used for the first versions as well, like the mangnetron and the microwave-resonant wire-mesh cage, besides some other useful components of a sulfur lamp. Hence, one has low-cost solutions for the source of microwaves and the clock of the Central Light-Processor Unit (CLPU) with at least 3 GHz (10^9 Hz) over 300 GHz (3*10^11 Hz) up to 1THz (10^12 Hz) as clock rate, and even an efficient energy con- sumption with clock power recovery, as well as a bandwith for the wireless data transmission in the range of several 100 Gbit/s.

 

   
Photon-Field™ Computing 14.July.2012
Das Photonenfeldrechnen bringt das Paradigma des digitalen Licht-/ optischen/photonischen Rechnens mit dem Wellenfeldrechnens zu- sammen. Eine Variante wird durch die Integration der Photoneigen- dreh- und -orbitalmomenten gegeben, wie wir es bereits mit dem Spintonik getan haben.
The Photon-Field Computing brings together the paradigms of the light/optical/photonic computing and the wave-field computing. One variant is given by the integration of the photonic spin and orbital angular momentums, as we have done already with the spintonics.

 

   
   
TeaTime™ Computing 21.January.2013
Das Teezeitrechnen basiert auf einem einfachen Prinzip und ist wirk- lich jenseits von allem bisher erdachten, aber zur Zeit auch sehr ex- perimentell, obwohl alle wissenschaftlichen Grundlagen in der Vergan- genheit mehrmals bewiesen wurden. Das Teezeitrechnen ist univer- sell mit allen unseren bereits bahnbrechenden integrierten Schaltun- gen anwendbar, wie Prozessoren, Speicherchips sowie Sensoren, als auch Rechnersystemen, wie den blitzschnellen kabellosen Super- rechnern==Wireless Supercomputers (WiSers) und den Technologien des Licht-/optischen/photonischen Rechnens.
The TeaTime Computing is based on a simple principle and really beyond everything else imagined so far, but also highly experimental actually, though all scientific foundations have been proven in the past several times. The TeaTime Computing is universally utilizable with all of our already pathbreaking integrated circuits, like process- ors, memory chips, and also sensors, as well as computer systems, like the lightining-fast Wireless Supercomputers (WiSers) and the light/optical/photonic computer technologies.

 

   
     
     
By-Light™ Actuator 200x
Der Mit-Licht-Aktuator==By-Light-Actuator ist ein Aktuator der durch eine optische Verbindung mit der Kontrolleinheit für die Kommunikation und den Datenaustausch verbunden ist indem zum Beispiel ein Lichtwellenleiter oder ein Laser genutzt wird. Der Mit-Licht-Aktuator kann mit jedem gewöhnlichen elektronischen Bauteil und System, das einen geeigneten Konnektor besitzt, unseren Licht-/optischen/photonischen Rechnertechnologien, unseren Wellenfeldrechen- und -verabeitungseinheiten und -sensoren, als auch mit unseren 3D-System in (einer) Packung und zudem mit speziellen Modellen von unseren Wellenfeldkameras- und -mikrofonen der Wavicle-Serie sowie unseren aktiven Anzeigen und aktiven Schirmen verwendet werden.
The By-Light Actuator is an actuator that is connected to the control unit by an optical link for communication and data exchange by using for example an optical fiber or a laser. The By-Light Actuator can be used with any common electronic component and system that features a suitable connection, our light/optical/photonic computing technologies, wave-field computing processing units and sensors, as well as with our 3D System in (a) Package (3DSiP), and also with special models of our wave-field cameras and microphones of the Wavicle series, as well as with our Active Display and Active Screen.

 

   
By-Light™ Sensor 200x
Der Mit-Licht-Sensor==By-Light-Sensor ist ein Sensor der durch eine optische Verbindung mit der Kontrolleinheit für die Kommunikation und den Datenaustausch verbunden ist indem zum Beispiel ein Lichtwellenleiter oder ein Laser genutzt wird. Der Mit-Licht-Sensor kann mit gewöhnlichen elektronischen Bauteil und System, das einen geeigneten Konnektor besitzt, unseren Licht-/optischen/photonischen Rechnertechnologien, unseren Wellenfeldrechen- und -verabeitungseinheiten und -sensoren, als auch mit unseren 3D-System in (einer) Packung und zudem mit speziellen Modellen von unseren Wellenfeldkameras- und -mikrofonen der Wavicle-Serie sowie unseren aktiven Anzeigen und aktiven Schirmen verwendet werden.
The By-Light Sensor is a sensor that is connected to the control unit by an optical link for communication and data exchange by using for example an optical fiber or a laser. The By-Light Sensor can be used with any common electronic component and system that features a suitable connection, our light/optical/photonic computing technologies, wave-field computing processing units and sensors, as well as with our 3D System in (a) Package (3DSiP), and also with special models of our wave-field cameras and microphones of the Wavicle series, as well as with our Active Display and Active Screen.

 

   
By-Ray™ Actuator 6.October.2012
Der Mit-Strahl-Aktuator==By-Ray-Actuator ist ein Aktuator, der durch eine elektromagnetischen Wellenleiter mit der Kontrolleinheit für die Kommunikation und den Datenaustausch verbunden ist indem zum Beispiel einem Nervenleiter, ein Maser oder ein Laser genutzt wird. Der Mit-Strahl-Aktuator kann mit jedem gewöhnlichen elektronischen Bauteil und System, das einen geeigneten Konnektor besitzt, unseren Licht-/optischen/photonischen Rechnertechnologien, unseren Wellenfeldrechen- und -verabeitungseinheiten und -sensoren, als auch mit unseren 3D-System in (einer) Packung und zudem mit speziellen Modellen von unseren Wellenfeldkameras- und -mikrofonen der Wavicle-Serie sowie unseren aktiven Anzeigen und aktiven Schirmen verwendet werden.
The By-Ray Actuator is an actuator that is connected to the control unit by an electromagnetical link for communication and data exchange by using for example an nerve fiber, a maser, or a laser. The By-Ray Actuator can be used with any common electronic component and system that features a suitable connection, our light/optical/photonic computing technologies, our wave-field computing processing units and sensors, as well as with our 3D System in (a) Package (3DSiP), and also with special models of our wave-field cameras and microphones of the Wavicle series, as well as with our Active Display and Active Screen.

 

   
By-Ray™ Sensor 6.October.2012
Der Mit-Strahl-Sensor==By-Ray-Sensor ist ein Sensor der durch einen elektromagnetischen Wellenleiter mit der Kontrolleinheit für die Kommunikation und den Datenaustausch verbunden ist indem zum Beispiel einem Nervenleiter oder ein Maser genutzt wird. Der Mit-Strahl-Sensor kann mit jedem gewöhnlichen elektronischen Bauteil und System, das einen geeigneten Konnektor besitzt, unseren Licht-/optischen/photonischen Rechnertechnologien, unseren Wellenfeldrechen- und -verabeitungseinheiten und -sensoren, als auch mit unseren 3D-System in (einer) Packung und zudem mit speziellen Modellen von unseren Wellenfeldkameras- und -mikrofonen der Wavicle-Serie sowie unseren aktiven Anzeigen und aktiven Schirmen verwendet werden.
The By-Ray Sensor is a sensor that is connected to the control unit by an electromagnetical link for communication and data exchange by using for example an electromagnetical fiber or a maser. The By-Ray Sensor can be used with any common electronic component and system that features a suitable connection, our light/optical/photonic computing technologies, wave-field computing processing units and sensors, as well as with our 3D System in (a) Package (3DSiP), and also with special models of our wave-field cameras and microphones of the Wavicle series, as well as with our Active Display and Active Screen.

 

   
     
Spintonics™ 6.July.2012
Spintonik bedeutet Spintransportphotonik in Analogie zu Spintronics, das Spintransportelektronik bedeutet. Wir haben bereits das Licht-/optische/photonische Rechnen mit dem Bahndrehimpuls von Photonen erweitert. Mit der Spintonik wird auch der Eigendrehimpuls hinzugefügt. Besonders interessant ist die Handhabung des Spins eines einzelnen Photons. Außerdem entwickeln wir Komponenten wie etwa eine Photonenpumpe um einem System genau ein einzelnes Photon mit einem voreingestellten Spin zuzuführen.
Spintonics means spin transport photonics in analogy to spintronics that means spin transport electronics. We already extended the light/optical/photonic computing with the orbital angular momentum of photons. With the spintonics the spin is added. Especially inter- esting is the handling of the spin of a single photon. Furthermore, we develop components, like a photon pump to feed a single photon with a predefined spin to a system.

 

   
SpinAccu™ 6.July.2012
Die Spinbatterie wurde bereits vor eingen Jahren entwickelt und wird an erster Stelle genutzt um den Eigendrehimpulse eines Elektrons zu speichern und an zweiter Stelle um Energie zu speichern, wie wir es auch mit unserer Spintronikenergiespeichertechnologie machen. Wir konsturieren Spinakkumulatoren auf verschiedene Weisen für Elektronik und Photonik sowie entwickeln Spinspeicheranwendungen, die auf diesen basieren.
The spin battery was already developed some years ago, and is used in the first place for storing the spin of an electron and in the second place for storing energy, as we do it with our Spintronic Energy Storage technology. We construct spin accumulators in different ways for electronics and photonics, as well as develop applications of spin storages based on these.

 

   
3D Spintronics™ 6.July.2012
Der Begriff 3D-Spintronik steht für 3-dimensionale Spintronikelemen- te.
The term 3D Spintronics stands for 3-dimensional spintronic compon- ents.

 

   
3D Spintonics™ 13.July.2012
Der Begriff 3D-Spintonik steht für 3-dimensionale Spintonikelemen- te.
The term 3D Spintonics stands for 3-dimensional spintonic compon- ents.

 

   

 

Twisted Wave™ 200x
Die Technik der gedrehten Welle spiegelt unsere Arbeit in dem Feld der elektromagnetischen Wellen wieder, die wir seit einigen Jahren durchführen.
In der durch quantenoptische Techniken implementierten Theorie der Quanteninformation wurde auf der einen Seite gezeigt, dass die auf dem zweidimensionalen Quantenraum der Polarisation beziehungswei- se des Eigendrehimpulses==Spin Angular Momentum (SAM oder kurz Spin) von Licht beziehungsweise einem Photon basierende und Qubit genannte Standardinformationskodierung den implementierbaren An- wendungen signifikante Beschränkungen auferlegt und auf der ande- ren Seite demonstriert, dass eine auf dem höherdimensionalen Quan- tenraum des Bahndrehimpulses==Orbital Angular Momentum (OAM oder kurz Orbit oder Bahn) von Licht beziehungsweise einem Photon basierende und Qudit genannte Informationskodierung implementiert werden kann. Qudit-basierte Quanteninformationsanwendungen könnten bessere theoretische Leistungen als ihre Qubit-basierten Äquivalenten bieten, während die kombinierte Anwendung der ver- schiedenen Freiheitsgrade SAM und OAM eines Photons und die SAM-OAM-Interaktion beziehungsweise Spin-Orbit-Interaktion oder Spin-Bahn-Kopplung eine Anzahl von neuen Möglichkeiten in dem Bereich der Lichtmanipulation eröffnet und hierdurch die Implemen- tierung von gänzlich neuen Quantenaufgaben ermöglicht.

In einem ersten Schritt haben wir uns mit den linearen und angularen Komponenten des gedrehten Lichts beschäftigt, die auf dem SAM und dem OAM eines Photons basieren.
In einem zweiten Schritt haben wir im Gegensatz zu der gewöhnli- chen Technik der optischen Phasenkonjugation, die für das Eleminie- ren/Annulieren von Störungen bei der Übertragung von Lichtsignalen durch ein Medium zusätzliche Übertragungsstrahlen verwendet, ge- nialerweise das Prinzip des gedrehten Lichts beziehungsweise den OAM eines Photons auch für die Phasenkonjugation verwendet, indem einfach ein gegenläufig gedrehtes Lichtsignal genommen wird.
Ausgehend von dem Modell der Quantenmechanik und der generali- sierten Ausprägungen der zwei einzelnen Drehimpulse als auch ihrer Interaktion bzw. Kopplung generalisierten wir dann auch die optische Phasenkonjugation zur Wellenphasenkonjugation in einem dritten Schritt.
In einem vierten Schritt fassten wir die generalisierten Ausprägungen der zwei einzelnen Drehimpulse und die Wellenphasenkonjugation zu der Technik der gedrehten Welle zusammen.

Die gedrehte Wellentechnik ohne oder mit Phasenkonjugation kann praktisch mit allen Techniken und Technologien angewendet werden, die auf elektromagnetischen Wellen basieren. Diese umfassen vor allem die Konstruktionweisen und die Anwendungen von Masern und Lasern, wie sie zum Beispiel für die Übertragung von Informationen durch elektromagnetische Wellen, das Quantenrechnen, unser Licht-/ optisches/photonisches Rechnen, unser Photonenfeldrechnen und unseren Qudit-Chip verwendet werden, als auch von Raumfahrzeug- antriebssystemen, wie z. B. der Antrieb von unserem Raumschiffkon- zept Twin Ion Engine Royal (TIE R)/LightSwift, das der ursprüngliche Grund für die Entwicklung aller einzelnen grundlegenden Techniken und ihre Integration war.

The Twisted Wave technique reflects our work in the field of electro- magnetic waves, that we are conducting since several years.
In the theory of quantum information implemented through quantum techniques, it has been shown on the one hand that the standard information encoding based on the two-dimensional quantum space of the polarization respectively Spin Angular Momentum (SAM or short spin) of light respectively a photon and called qubit imposes significant limitations on the applications that can be implemented and it has been demonstrated on the other hand that an information encoding based on the higher dimensional quantum space of the Orbital Angular Momentum (OAM or short orbit) of light respectively a photon and called qudit can be implemented. Qudit-based quantum information applications may offer better theoretical performances than their qubit equivalents, while the combined use of the distinct degrees of freedom SAM and OAM of a photon, and the SAM-OAM interaction respectively spin-orbit interaction or spin-orbit coupling opens a number of new possibilities in the field of light manipulation and in this way enables the implementation of entirely new quantum tasks.

In a first step we dealt with the linear and angular components of the twisted light, which are based on the SAM and the OAM of a photon.
In a second step we ingeniously applied the principle of the twisted light respectively the OAM of a photon for the phase conjugation as well by simply taking a counter-twisting wave in contrast to the common technique of the optical phase conjugation, which applies additional transmission beams to cancel out noise in the transmission of light signals through a medium.
On the basis of the model of quantum mechanics and the generalized manifestations of the two single angular momenta as well as their interaction resp. coupling we generalized also the optical phase con- jugation to the wave phase conjugation in a third step.
In a fourth step we combined the generalized manifestations of the two single angular momenta and the wave phase conjugation to the technique of the twisted wave.

The twisted wave technique without or with phase conjugation can be applied with every technique and technology virtually, that are based on electromagnetic waves. These comprise particularly the ways of construction and the applications of masers and lasers, as they are utilized for the transmission of informations by electromag- netic waves, the quantum computing, our light/optical/photonic computing, our photon-field computing, and our Qudit Chip, as well as of space vehicle propulsion systems, like for example the propuls- ion of our spaceship concept Twin Ion Engine Royal (TIE R)/Light- Swift, which was the initial reason for the development of all single basic and their integration.

 

   
     
     

 

MultiPresence/MixedPresence™ 2001
Top Secret - Only for Customers

 

   
Personal Automatic Virtual Environment™ (PAVE™) 1997
Cave Automatic Virtual Environments (rekursives Akronym CAVE) und Definitely Affordable Virtual Environments (DAVE) sind immersive virtuelle Realitäten Technologien. PAVE übernimmt sämtliche notwendigen Leistungen für den Betrieb solcher Systeme in privaten und professionellen Bereichen.
Cave Automatic Virtual Environments (recursive acronym CAVE) and Definitely Affordable Virtual Environments (DAVE) are immersive Virtual Reality environment technologies. PAVE delivers all necessary services for the operation of such systems in private and professional areas.

 

   
Sp@ce™ 200x and 10.June.2012
Die Sp@ce-Technologie nutzt modernste Projektions- und Sensor- technologien in Kombination mit der Technik der erweiterten Realität (Augmented Reality) um stationäre (z. B. Gebäude) oder mobile Räumlichkeiten (z. B. Auto, Zug, Flugzeug und Schiff) in einen Be- standteil der Benutzerschnittstelle zu transformieren und sie so in multimediale Anwendungen zu integrieren. Sie kann auch zusammen mit Bildschirmtechnologien, wie z. B. unsere eVSG, genutzt werden.
Wir haben unsere Sp@ce-Technologie auch mit dem Multiwave-An- satz und dem zugehörigen SpaceWave-Konzept, die unsere Wellen- feldtechnologien und unser Wellenfeldrechenparadigma hinzufügen, sowie mit dem Paradigma der gemischten Realität==Mixed Reality (MR) nach unserer Definition, die das Spektrum von Realität, ange- reicherter Realität==Augmented Reality (AR), virtueller Realität== Virtual Reality (VR) und anderen dazwischen liegenden Kombinationen beschreibt, erweitert.
The Sp@ce-technology applies most modern projection and sensor technologies in combination with the technique of the augmented reality to transform stationary (e.g. buildings) or mobile premises (e.g. car, train, plane and ship) into parts of the user interface, and to integrate them into multimedia applications in this way. It can be used together with display technologies, like our eVSG, as well.
We have also extended our Sp@ce concept with the Multiwave approach and the associated SpaceWave approach, which adds our wave-field technologies and our wave-field computing paradigma, as well as with the Mixed Reality (MR) after our definition, which describes the spectrum of reality, Augmented Reality (AR), Virtual Reality (VR), and other combinations that lay inbetween.

 

   
Sp@ceWave™ 10.June.2012
Das Sp@ceWave-Konzept ist ein multimediales Interiorkonzept, das die Sp@ce-Technologie mit dem MultiWave-Ansatz verbindet, sodass auch die Wellenfeldtechnologien und unser Wellenfeldrechenparadig- ma angewendet werden können.
The Sp@ceWave concept is a multimedia interior concept, which connects the Sp@ce technology with the MultiWave approach, so that also our wave-field technology and our wave-field computing paradigm can be applied.

 

   
Sp@cemaX™
Das SpacemaX-Konzept ist eine Ableitung unserer Sp@ce-Techno- logie, die eine multimassive Benutzerschnittstelle ergänzt. Hierdurch verändert es das Massen-Mehrspieler-Online-Spiel==Multiplayer Online Game (MMOG), Massen-Mehrspieler-Online-Rollenspiel==Massively Multiplayer Online Role-Playing Game (MMORPG) und andere Spielkonzepte, aber auch die virtuelle Umgebung für Mehrbenutzer==Multi-User Virtual Environments (MUVE) und sogar das Kostümspiel==Costume Play (Cosplay) vollkommen durch die neue Technologie auf der einen Seite und durch die neuen Möglichkeiten, Anwendungen und Benutzerverbindungen auf der anderen Seite.
The SpacemaX concept is the derivation of our Sp@ce technology that adds a Massively Multi User Interface. In this way it changes the Massively Multiplayer Online Game (MMOG), Massively Multiplayer Online Role-Playing Game (MMORPG), and other gaming concepts and systems, but also the Multi-User Virtual Environment (MUVE) and even costume play (cosplay) completely by the new technology on the one hand, and the new possibilities of utilization, application, and user connection on the other hand

 

   
Mixing LC Display™ 201x
Die mischende Flüssigkristallanzeige==Mixing LCD mischt die Farben direkt in den Flüssigkristallen und nicht durch die Steuerung der einzelnen Pixel einer Anzeige in einer besonderen Weise.
The Mixing LC Display mixes the colors directly in the liquid crystals and not by controlling the single pixels of a display in a specific way.

 

   
Mixing LED Display™ 200x
Die mischende lichtemittierende Diodenanzeige==Mixing LED Display mischt die Farben direkt in den LichtEmittierenden Dioden (LEDn) und nicht durch die Steuerung der einzelnen Bildpunkte beziehungsweise Dioden einer Anzeige in einer besonderen Weise.
The Mixing LED Display mixes the colors directly in the Light-Emitting Diodes (LEDs) and not by controlling the single pixels respectively diodes of a display in a specific way.

 

   
Multilense™ 2011
Das Multiobjektiv integriert kleinere Linsen und Objektive in einem großen Objektiv und kann sogar verschiedenen Sensoren, Aktuatoren (z. B. Maser und Laser), einen Teleskopmechanismus oder/und ein Wechselsystem mit zum Beispiel Bayonettverschluß besitzen, wie sie sogenannte Systemkameras aufweisen. Das Multiobjektiv ist mit Ka- meras aller Typen, Smartfonen, unseren Ontoskopen, Retinaprojekto- ren und auch anderen stationären und mobilen Geräten nutzbar. Die Technologie wird unter anderem auch mit unseren Lichtfeldobjektiven und Strahlenfeldobjektiven verwendet.
The Multilense integrates smaller lenses and camera lenses in one large lens, and even can have different sensors, actuators (e.g. maser and laser) a telescope mechanism, or/and a changing system with for example bayonet catch, as featured by so-called system cameras. The Multilense is useable with cameras of all types, smart- phones, our Ontoscopes, Retina Projectors, and other stationary and mobile devices as well. The technology is also utilized with our light- field lens and ray-field lens

 

   
Image Display 2.0
Charakteristisch für unsere Bildanzeigen 2.0 ist, dass sie Techniken, wie die Körperabtastung, inklusive z. B. der Kopf- und der Oberkör- perbewegungsregistrierung/-verfolgung, der Gesichtsabtastung, in- klusive z. B. der Augen- und der Blickbewegungsregistrierung/-ver- folgung, oder/und der Gesichtserkennung besitzen. Hierdurch ermög- lichen sie interessante Anwendungen für alle unsere Geräte, wie etwa Fernseher, Projektoren, E-Bücher, Smartphone, Tablet- und Pad-Computer, Notebooks==E-Notizbücher, Kameras, Amaturenbret- ter, E-Tapeten und E-Wände und so weiter. Eine der interessantesten Möglichkeiten ist dabei die Darstellung von 3D-Bildern. Sicherlich können unser Bildschirme auch allgemeine Daten über eine/einen Zu- schauerIn liefern, wie das Geschlecht oder das Alter, ohne dabei ihre Privatsphäre und ihren Schutz der Daten zu verletzen, wie zum Bei- spiel durch die Identifizierung einer bestimmten Person. Hierdurch er- lauben und helfen unsere Lösungen BenutzerInnen und Unternehmen Dienste genau vorzugeben, wie z. B. Werbung, Aktivität und Inter- aktivität und so viele mehr. Selbstverständlich hat eine/ein Benutze- rIn die Wahlmöglichkeit solche Ausstattungen eines Geräts selbst- ständig zu aktivieren um auf der einen Seite volle Kontrolle über ihre/ seine Privatspähre zu behalten. Aber auf der anderen Seite geben unsere Lösungen jedem auch den Vorteil neue und sicherlich bessere Modelle des Abonnierens, Bewertens und Bewerbens generell und nicht nur im Bereich des Fernsehens zu genießen.
Characteristical for our Image Displays 2.0 is, that they feature techniques, like the body scanning, inclusive e.g. the head tracking and the torso tracking, the facial scanning, inclusive e.g. eye track- ing and gaze tracking, or/and the facial recognition. In this way they enable interesting applications for all of our devices, like e.g. televis- ions, projectors, e-books, smartphones, tablet and pad computers, notebooks, cameras, dashboards, e-wallpapers and e-walls, and so on. One of the most interesting possibility with it is the displaying of 3D images. For sure, our image displays can also provide general data about a viewer, like the gender or the age, but do not infringe the protection of a user's privacy and data by for example identify- ing a specific person. In this way our solutions are supporting users and companies to present services exactly, like e.g. advertisement, activity and interactivity, and so many more. Naturally, a user has the option to enable such features of a device on her/his own to keep full control over her/his privacy on the one side. But on the other side our solutions also give everybody the opportunity to enjoy new and surely better models of subscribing, rating, and advertising in general and not only in the field of the television.

 

   
LCD Image Display 2.0 14.June.2012
Unsere Technologie der LCD Image Display==LCD-Bildanzeige 2.0 bezeichnet die Integration der LCD-basierten Bildwiedergabe mit den Techniken der Körperabtastung, wie etwa der Kopf- und der Ober- körperbewegungsregistrierung/-verfolgung, der Abtastung des Ge- sichts, wie z. B. der Augen- und der Blickbewegungsregistrierung/ -verfolgung, oder/und der Gesichtserkennung für die Verbesserung der Bilddarstellung durch Bewegungskompensation/-ausgleich, als auch für die Steuerung der Benutzerschnittstelle, der Anwendung der Technik der Angereicherten Realität (AR) sowie der Realisierung und der Unterstützung von weiteren Anwendungen, die in der allgemeinen Beschreibung unserer Bildgebungssysteme 2.0 genannt sind. Die Technologie kann in ein Gerät eingebaut werden oder als ein Zusatz- gerät realisiert werden und ist für 3D-Bildschirme und 3D-Projektoren geeignet.
Our technology of the LCD Imaging System 2.0 denotes the inte- gration of the LCD-based image display with the techniques of the body scanning, such as the head tracking and the torso tracking, the facial scanning, like e.g. the eye tracking and the gaze tracking, or/and the facial recognition for enhancing the image displaying by motion compensation, as well as for the control of the user inter- face, the utilization of the Augmented Reality (AR), as well as the realization and the support of further applications mentioned in the general description of our imaging systems 2.0. The technology can be built into a device or be realized as a peripheral device, and is suitable for 3D displays and 3D projectors.

 

   
LED DLP Image Display 2.0 6.July.2007 and 4.June.2012
Unsere Technologie der LED DLP Image Display==LED-DLP-Bildge- bungssystem 2.0 bezeichnet die Integration der LED-basierten Bild- wiedergabe mit den Techniken der Körperabtastung, wie etwa der Oberkörper- und Kopfbewegungsregistrierung/-verfolgung, der Ge- sichtsabtastung, wie z. B. der Augen- und der Blickbewegungsre- gistrierung/ -verfolgung, oder/und der Gesichtserkennung für die Verbesserung der Bilddarstellung durch Bewegungskompensation/ -ausgleich, als auch der Steuerung der Benutzerschnittstelle und der Anwendung der Technik der Angereicherten Realität (AR) sowie der Realisierung und der Unterstützung von weiteren Anwendungen, die in der allgemeinen Beschreibung unserer Bildgebungssysteme 2.0 genannt sind. Die Technologie ist für 3D-DLP-Anzeigen und somit für Endgeräte, wie dem 3D-DLP-Fernseher und dem 3D-DLP-Projektor, geeignet. Die Technologie kann in ein Gerät eingebaut werden oder als ein Zusatzgeräte realisiert werden.
Our technology of the LED DLP Imaging System 2.0 denotes the in- tegration of the LED-based image display with the techniques of the body scanning, such as the torso tracking and the head tracking, the facial scanning, like e.g. the eye tracking and the gaze tracking, or/and the facial recog- nition for enhancing the image displaying by motion compensation, as well as the control of the user interface, and the utilization of the Augmented Reality (AR), and also the re- alization and the support of further applications mentioned in the general description of our imaging systems 2.0. The technology is suitable for 3D DLP displays and in this way for consumer devices like the 3D DLP TV and the 3D DLP projector. The technology can be built into a device or be realized as a peripheral device.

 

   
Plasma Image Display 2.0 14.June.2012
Unsere Technologie der Plasma Image Display==Plasma-Bildanzeige 2.0 bezeichnet die Integration der Plasma-basierten Bildwiedergabe mit den Techniken der Körperabtastung, wie z. B. der Kopf- und der Oberkörperbewegungsregistrierung/-verfolgung, oder der Gesichtsab- tastung, wie z. B. der Augen- und der Blickbewegungsregistrierung/ -verfolgung für die Verbesserung der Bild- darstellung durch Bewe- gungskompensation/-ausgleich, als auch der Steuerung der Benut- zerschnittstelle und der Anwendung der Technik der Angereicherten Realität (AR) sowie der Realisierung und der Unterstützung von wei- teren Anwendungen, die in der allgemeinen Beschreibung unserer Bildgebungssysteme 2.0 genannt sind. Die Technologie ist für 3D-An- zeigen geeignet und somit für Endgeräte wie dem 3D-Fernseher und dem 3D-Projektor. Die Technologie kann in ein Gerät eingebaut wer- den oder als ein Zusatzgeräte realisiert werden.
Our technology of the Plasma Imaging System 2.0 denotes the inte- gration of the plasma-based image display with the techniques of the body scanning, such as the head tracking and the torso track- ing, or the facial scanning, like e.g. the eye tracking and the gaze tracking, for enhancing the image displaying by motion compensat- ion, as well as the control of the user interface, and the utilization of the Augmented Reality (AR), and also the realization and the sup- port of further applications mentioned in the general description of our imaging systems 2.0. The technology is suitable for the 3D dis- play and in this way for consumer devices like the 3D TV and the 3D projector. The technology can be built into a device or be realized as an additional device.

 

   
Laser Image Display 2.0 6.July.2007 and 4.June.2012
Unsere Technologie der Laser Image Display==Laser-Bildanzeige 2.0 bezeichnet die Integration der laserbasierten Bildwiedergabe mit den Techniken der Körperabtastung, wie z. B. der Kopf- und der Oberkör- perbewegungsregistrierung/-verfolgung, oder der Gesichtsabtastung, wie etwa der Augen- und der Blickbewegungsregistrierung/-verfol- gung für die Verbesserung der Bilddarstellung durch Bewegungskom- pensation/-ausgleich, als auch der Steuerung der Benutzerschnitt- stelle und der Anwendung der Technik der Angereicherten Realität (AR). Zu dieser Technologie zählt auch die Klasse der laserbasierten virtuellen Ausgabeanzeigen der zweiten Generation==Virtual Image Displays 2.0 (VIDs II/VIDs 2.0) zu der die virtuelle Retinaanzeige== Virtual Retina/Retinal Display (VRD) und unsere Retinaprojektoren zugeordnet werden. Weitere Anwendungsfelder sind die 3D-Laser-Bildschirme von Computern und anderen Maschinen sowie der 3D- Laser-Fernseher und der 3D-Projektor. Die Technologie kann in ein Gerät eingebaut werden oder als ein Zusatzgeräte realisiert werden.
Our technology of the Laser Imaging System 2.0 denotes the inte- gration of the laser-based image display with the techniques of the body scanning, like e.g. the head tracking and the torso tracking, or the facial scanning, such as the eye tracking and the gaze tracking, for enhancing the image display by motion compensation, as well as the control of the user interface, and the utilization of the Augment- ed Reality (AR). To this technology belong as well the class of the laser-based Virtual Image Displays of the second generation (VIDs II/VIDs 2.0) to which the Virtual Retina/Retinal Display (VRD) and our Retina Projectors are assigned to. Further fields of application are the 3D laser monitors of computing devices and other machines, as well as the 3D laser TV and the 3D projector. The technology can be built into a device or be realized as a peripheral device.

 

   
Mobile 4D Image Display 9.November.2006 and 6.July.2007
Unsere Technologie der mobilen 4D Bildgebungssysteme bezeichnet die Integration von 3D-Bildschirmen und 3D-Projektoren mit mobilen Endgeräten, wie zum Beispiel einem anziehbaren Computer, zu der die sm@rte Uhr und die sm@rte Brille zählen, einem intelligenten Klei- dungsstück, einem Multimediaabspielgerät ohne oder mit Streaming-Technologie, einer Mobilspielkonsole, einem Fotoapparat, einem Mo- bilcomputer/Laptop, einem Mobiltelefon, einem Tablet-Computer, ei- nem P@d-Computer, einem Retinaskop oder sogar Systemen für Be- dienung, Information, Navigation oder/und Unterhaltung in einem Ve- hikel, mit den Techniken der Körperabtastung, wie z. B. der Kopf- und der Oberkörperbewegungsregistrierung/-verfolgung, oder der Ge- sichtsabtastung, wie z. B. der Augen- und der Blickbewegungsregis- trierung/-verfolgung, die synchron mit den 3D-Bildschirmen und 3D- Projektoren zusammenarbeiten um durch die Kompensation/den Aus- gleich von Kopf- oder/und Augenbewegungen die Bilddarstellung zu verbessern, wie es bereits mit der stationären 4D Bildgebungstech- nologie getan wird, aber auch zur Steuerung der Benutzerschnitt- stelle und der Anwendung der Technik der Angereicherten Realität (AR). Für die Realisierung dieser Technologie kann sowohl eine ein- fache Kamera als auch ein komplexeres System, wie zum Beispiel unsere anderen MobileKinetic- und MultiKinetic-Technologien, mit der entsprechende Software genutzt werden. Aufgrund der Inertialsen- soren der kinetischen Technologien ergibt sich zudem die Möglichkeit die Ausgabeanzeige oder genau gesagt die dargestellte 3D-Perspek- tive durch das Bewegen eines mobilen Gerätes zu steuern.
Ausgenommen von unserer Technologie ist nur die Anzeigevariante auf der Basis der TFT-LCD-Technologie mit einer speziellen Bild- schirmschicht und Kopfbewegungsverfolgung für Mobiltelefone, die aber keine praktisch Relevanz mehr hat.
Our technology of the Mobile 4D Imaging Systems denotes the inte- gration of 3D displays and 3D projectors with mobile devices, like for example a wearable computer, to which belong the Sm@rtWatch and the Sm@rtEyewear, a piece of intelligent clothing/raiment, a multi- media player without or with streaming technology, a handheld/port- able game console, a camera, a laptop, a mobile phone, a tablet computer, a P@d Computer, a Retinascope, or even systems for control, information, navigation or/and entertainment in a vehicle, with the techniques of the body scanning, like e.g. the head track- ing and the torso tracking, or the facial scanning, such as the eye tracking and the gaze tracking, that synchronously works together with the 3D displays and 3D projectors for enhancing the image displaying by compensation of the head or/and eye motion, as it is already done with the stationary 4D imaging technology, but also for the control of the user interface, and the utilization of the Augment- ed Reality (AR). For the realisation of this technology both a simple camera and a more complex system, like for example our technolo- gies MobileKinetic and MultiKinetic, with the corresponding software can be applied. Because of the inertial sensors of our kinetic techno- logies, the possibility results to control the output display or strictly speaking the presented 3D-perspective with the moving of a mobile device.
Excluded from our technology is only the display variant that is based on the TFT LCD technology with a special screen layer and head tracking for mobile/cell phones, but has no relevance in practice anymore.

 

   
Mobile Motion-Tracking Display/Screen 9.June.2012
Die Anzeige und der Schirm mit mobiler Bewegungsverfolgung kombi- nieren die Techniken der mobilen Bewegungsregistrierung und -ver- folgung, wie sie zum Beispiel unsere Technologie der am Kopf befes- tigten Anzeige 2.0 verwendet, mit stationären Anzeige- und Schirm- technologien aller Art. Unter anderem kann hierdurch nicht nur ein 3D-Fernseher wirklich realsiert werden, sondern auch der Mehrper- sonen-3D-Fernseher. Auch der Einsatz gemeinsam mit der Sp@ce-Technologie bietet viele interessante Möglichkeiten.
The display and the screen with mobile motion-tracking combine the techniques of the mobile motion-registration and -tracking, as they are used with our technology of the head-mounted display 2.0 for example, with stationary display and screen technologies of all kind. Among others, not only a 3D TV can be truely realized in this way, but also the multi-person 3D TV. Also, the utilization together with the Sp@ce technology offers many interesting possibilities.

 

   
Active Display™ and Active Screen™ 200x
Der aktive Bildschirm kann in seinen verschiedenen Versionen nicht nur 2D- und 3D-Bilder und -Videos anzeigen sowie 2D und 3D Geräu- sche, Tastreize und jede andere Art von Wellenfeldern erzeugen, sondern auch aufnehmen und außerdem mit der Parionik integriert werden. Die bildgebenden Varianten basieren auf unseren Technolo- gien der ladungsträgergekoppelten Superschaltung==Super Charge-Coupled Device (SCCD), des super komplementären Metalloxid-Halb- leiters==Super Complementary Metal Oxide Semiconductor (SCMOS), der Multischichten/-scheibenanzeige==Multi-Layer/stacked Display (MLD), des sehr hoch auflösenden Bildschirms==Very High Resolution Display (VHRD), der Retinaprojektion genauso wie auf dem Wellen- feldrechnen und der/dem Wellenfeldsynthese/-rendering als auch den Technologien und Techniken von Hapticle und dem Kinetikfeldrech- nen und allen weiteren Technologien und Techniken die mit unseren Bildanzeigen der 2. Generation genutzt werden. Eine neuere Version kann wie ein Solarkollektor elektrischen Strom durch die Nutzung einer Dünnschicht von zum Beispiel wasserstoffhaltigem amorphem Silizium produzieren, die mit dem Bildschirm geschichtet oder direkt in den Bildschirm integriert ist und ein Feld von Solarzellen nutzt, das Umgebungslicht und verschwendetes Licht des Bildschirms selber in elektrischen Strom umwandelt. Als eine zusätzliche Option kann ein Feld von photovoltaischen Elementen direkt an der Innenseite des Bildschirmrahmens angebracht werden.
With its different versions the Active Display cannot only display 2D and 3D images and videos, as well as produce and record 2D and 3D sound, and every other kind of wave-fields, as well as tactile/haptic stimulis, and also can be integrated with parionics. It is based on our technologies of the Super Charge-Coupled Device (SCCD), Super Complementary Metal Oxide Semiconductor (SCMOS), Super Comp- lementary Metal Oxide Semiconductor (SCMOS), Multi-Layer/stacked Display (MLD), Very High Resolution Display (VHRD), Retina Project- ion, as well as Wavicle, wave-field computing, and wave-field syn- thesis/rendering, and also Hapticle and Kinetic-Field computing, and all further technologies and techniques used with our image displays of the 2nd generation. A further version can produce electric power like a solar panel by using a thin-layer of for example hydrogenated amorphous silicon that is stacked with the screen or directly inte- grated into the screen, and uses an array of solar cells that convert ambient light and wasted light by the display itself into electricity. As an additional option an array of photovoltaic elements can be integrated in the inside of the screen's frame.

 

   
NanoProjector™ 200x, 17.September.2008, and 7.November.2010
Mit dem Begriff NanoProjektor bezeichnen wir unsere stationären und mobilen Projektoren die sehr kleine Abmessungen besitzen und ver- schiedene Projektionstechniken anwenden. So nutzt zum Beispiel eine Version genau einen Laser und eine andere Version einen roten, einen blauen und einen grünen Laser für die laserbasierte holographi- sche Projektion (LHP) von 2D- und 3D-Bildern, während der Retina- projektor 2D-Bilder direkt in ein oder jedes Auge einer Benutzerin/ei- nes Benutzers projeziert.
With the term NanoProjector we label our stationary and mobile pro- jectors that have extremly small dimensions and apply different techniques of projection. For example, one version applies exactly one laser and another version uses a red, a green and a blue laser for the laser-based holographic projection (LHP) of 2D and 3D images, while the Retina Projector directly projects in one or each eye of its user a 2D image.

 

   
     
Holonicle™::Display 1999
Holonicle::Display entwickelt holographische Monitore in planarer und volumetrische Bauform für stationäre und mobile Geräte und Anwen- dungen. Ein spezieller Typ ist unser mehrschichtiger Bildschirm. Wei- tere 3D-Anzeigetypen basieren auf Bildschirmkomponenten, die eine sehr hohe Auflösung besitzen oder/und der Anwendung der Laser- technologie (Holonicle::123Laser). Anwendungen unserer Technolo- gien sind außerdem im Automobil- (Holonicle@Car), Flugzeug-, Raum- schiff- und Schiffsbau, in der Architektur (Holonicle@Home), als auch in der Logistik (Holonicle::MetroSmart) zu finden.
Holonicle::Display develops holographic displays in planar and volu- metric construction form for stationary and mobile devices and app- lications. One specific type is our multi-layer/stacked display. Fur- ther 3D display types are based on screen components that have a very high resolution or/and the usage of the laser technology (Holo- nicle::123Laser). Moreover, applications of our technologies can be found in the fabrication of automobiles (Holonicle@Car), aircrafts, spacecrafts, and ships, in the architecture (Holonicle@Home), as well as in the logistics (Holonicle::MetroSmart).

 

   
Multi-Layer/Stacked Display 1999, 3.November.2010, and 7. and 8.August 2012
Unsere Weiterentwicklung der autostereoskopischen mehrstufigen/ vielschichtigen 3D-Bildschirme mit 2 oder mehr Schichten folgte der Technik der ComputerTomographie (CT), da die CT exakt entgegen- gesetzt wie unsere volumetrischen Bildschirme funktioniert indem sie mit einer Abtastung sogenannte Schnitte/Scheiben von einem Objekt anfertigt, die zum Erzeugen eines 3D-Modells und zum Anzeigen wie- der zusammengesetzt/geschichtet werden. Dementsprechend wird die Technik mittlerweile auch als tomografische Bildsynthese bezei- chnet. Konzeptionell wird dieses Schichten direkt durch die Bauweise der darstellenden Hardware realisiert, also durch das Schichten von einzelnen Bildschirmschichten und gegebenenfalls auch von Grafik- prozessoren. Zudem arbeiten die Bildschirmschichten in solch einer Weise zusammen, dass abhängend von dem aktuell angezeigten Bild oder Filmeinzelbild eine mittlerweile sogenannte adaptive Parallaxe- barriere erzeugt wird. Als Option kann der 3D-Bildschirm berührungs- sensitive Funktionalität mit einem oder mehreren Fingern besitzen, von mehreren Personen gleichzeitig und mit ausreichend vielen Bild- schirmschichten sogar von allen Seiten betrachtet werden, für mobi- le Geräte, wie z. B. Mobiltelefone, Tablet- und Pad-Computern, trag- baren Computern mit Tastatur (Laptop/ Notebook und Netbook) und weiteren mobilen Anwendungen, z. B. in Fahrzeugen, als auch mit allen Arten von stationären Geräten genutzt werden. Weitere Erwei- terung von uns sind das Hinzufügen von Systemen zum Registrieren, Abtasten und Verfolgen von Körperteilen, wie z. B. Kopf, Gesicht und Auge, tastbare/haptische Systeme, kabellose Energieübertragungs- systeme, kabellose Netzwerktechnologien sowie das Wellenfeldrech- nen und die Wellenfeldsynthese. Neben der Technologie der Flüssig- kristallanzeige==Liquid Crystal Display (LCD) werden auch Bildschirm- technologien, die als Basis die LichtEmittierende Diode (LED), die Organische LED (OLED), die Passive Matrix OLED (PMOLED) und die Aktive Matrix OLED (AMOLED), das Plasma, die Laser und die Feld- Emission (FE), z. B. mit Kathoden aus Nanoröhren, haben und alle anderen geeigneten Technologien und Techniken verwendet, wie z. B. die integrale Bildgebung mit ihrer Verwendung eines Mikrolinsengit- ters. Tests eines unabhängigen Labors bewiesen, dass unser Ansatz ein deutlich klareres und helleres 3D-Bild erzeugt und dabei zusätz- lich weniger Energie verbraucht. Zudem besteht die Möglichkeit pho- tovoltaische Elemente auf, unter oder in den Bildschirm oder/und in den Rahmen zu integrieren und so die Energie ungenutzter Licht- strahlen zu rezyklieren.
Interessant ist auch, dass die für die einzelnen Schichten genutzten bildgebenden Technologien unserer mehrstufigen/vielschichtigen Anzeigen/Schirme auch gemischt werden können.
Our further development of the autostereoscopic multi-layered/mul- ti-stacked 3D displays with 2 or more layers followed the technique of the Computer Tomography (CT), because the CT works exactly the other way round than our volumetric displays of this type by making so-called slices of an object with a scan that are stacked together again for creating a 3D model of the scanned object and for displaying. Accordingly, the technique is also denoted as tomo- graphic image synthesis in the meantime. Conceptually, this stacking is directly realized by the way of construction of the displaying hard- ware, i.e. by the stacking of single display layers and occasionally also by the Graphics Processing Units (GPUs). Furthermore, the dis- play layers work together in such a way that an adaptive parallax barrier, as it is called in the meantime, is created depending on the image or video frame actually shown. As option, the 3D display can have touch and multi-touch functionality, be viewed simultaneously by multiple persons and even from all sides with sufficiently many display layers, and be used for mobile devices, like e.g. mobile tele- phones, tablet and pad computers, laptops/notebooks and netbooks, and others, and further mobile applications, e.g. in vehicles, as well as all kinds of stationary devices. Further extensions made by us are the addition of body registering, scanning, and tracking systems, like e.g. for head, face, and eye, tactile/haptic systems, wireless power transmission systems, wireless network technologies, as well as the wave-field computing and the wave-field rendering/synthesis. Beside the technology of the Liquid Crystal Display (LCD), also display tech- nologies are used that have as the basis the Light-Emitting Diode (LED), the Organic LED (OLED), the Passive Matrix OLED (PMOLED), and the Active Matrix OLED (AMOLED), the plasma, the laser, the Field-Emission (FE), e.g. with cathodes made out of nanotubes, and all other appropriate technologies and techniques, like e.g. the inte- gral imaging with its usage of a microlens array. Tests of an inde- pendent laboratory have proved, that our approach delivers a strik- ingly clearer and brighter 3D image with a much better 3D effect and thereby consumes less energy. Moreover, there is the possibility to integrate photovoltaic elements on top, under, or in the screen, or/and in the frame, and to recycle the energy of unused light rays in this way.
Interesting is also that the imaging technologies used for the single layers of our multi-layer/stacked displays/screens can also be mixed.

 

   
Very High Resolution Display 13.August.2012
Ein weiterer Anzeigetyp basiert auf Bildschirmkomponenten, die wie das LaserPapier (lpaper) und das LaserGlas (lglass) eine sehr hohe Auflösung besitzen, sodass die Anzahl der Schichten eines mehr- schichtigen Bildschirms verringert werden kann bis zum Schluß die volumetrische Bauform verzichtbar wird und durch die Integration unserer Wellenfeldprozessoreinheiten und Techniken der Wellenfeld- synthese für den holografischen Bildschirm nur noch eine Bildschirm- schicht benötigt wird. Der sich daraus ergebende Nachteil, dass ein 3D-Bild nicht mehr von allen Seiten betrachtet werden kann, sondern nur aus einem begrenzten Betrachtungswinkel, wird durch den Vorteil des sehr dünnen Bildschirms ausgeglichen. Neben der Technologie der Flüssigkristallanzeige==Liquid Crystal Display (LCD) werden auch Bildschirmtechnologien, die als Basis die LichtEmittierende Diode (LED), die Organische LED (OLED), die Passive Matrix OLED (PMOLED) und die Aktive Matrix OLED (AMOLED), das Plasma, die Laser und die FeldEmission (FE), z. B. mit Kathoden aus Nanoröhren, haben und alle anderen geeigneten Technologien und Techniken verwendet, wie z. B. die integrale Bildgebung mit ihrer Verwendung eines Mikrolinsen- gitters.
A further display typ is based on screen components that have a very high resolution, like the LaserPaper (lpaper) and the LaserGlass (lglass), so that the count of the layers of a multi-layer/stacked dis- play can be reduced until only one layer is needed in the end by the integration of our wave-field processing units and wave-field render- ing/synthesis techniques. The disadvantage resulting out of it, that a 3D image can't be viewed from all sides, but only from a limited viewing angle, is offset with the advantage of the very thin display. Besides the technology of the Liquid Crystal Display (LCD), display technologies are used as well that have as the basis the Light-Emitting Diode (LED), the Organic LED (OLED), the Passive Matrix OLED (PMOLED), and the Active Matrix OLED (AMOLED), the plasma, the laser, the Field-Emission (FE), e.g. with cathodes made out of nanotubes, and all other appropriate technologies and techniques, like e.g. the integral imaging with its usage of a microlens array.

 

   
Holonicle™::Deck
Die Technologie Holonicle::Deck vereint unsere anderen Technologien von Holonicle mit den Technologien der Raumwellen==SpaceWave, die auf der Technologie des digitalen Raums==Sp@ce und dem Mul- tiwellen-==MultiWave-Ansatz basiert, der Multikinetik==MultiKinetic und der Multihaptik==MultiHaptic, die wiederum die Kinetikfeld- und die Haptikfeldtechnologien mit einschließen, sowie des elektronischen Verbund(Sicherheits)Glases (eVSG), des elektronischen Polymers (eP), der LED-DLP-Bildanzeige 2.0, der Laserbildanzeige 2.0, des LaserGlases (lGlas) oder/und des LaserPapiers (lPapier). Zu den technologischen Grundlagen zählen somit das Wellenfeldrechenpara- digma und die Technik der Wellenfeldsynthese von Lichtfeldern und Ultraschallfeldern, die auf die gleiche Weise generiert werden, wie die Schallfeldsynthese hörbare Geräuschumgebungen erzeugt. Hierdurch können vollkommen verblüffende Raum- und Gebäudekonzepte ge- schaffen werden, die nicht nur die ersten angereicherten Realitäts- und vollimmersiven virtuellen Realitätsumgebungen sind, die keine speziellen Brillen oder am Kopf befestigten Anzeigen==Head-Mount- ed Displays (HMDs) benötigen, sondern sogar echte Holodecks, wie es in der Star Trek® Saga gezeigt wird.
The technology Holonicle::Deck unites our other technologies of Holonicle with the technologies of the SpaceWave, that is based on the Sp@ce technology and the MultiWave approach, of the Multi- Kinetic and the MultiHaptic technologies, which again include the Kinetic-Field and the Haptic-Field technologies, and also of the elec- tronic Laminated (Safety) Glas (eLSG), the electronic Polymer (eP), the LED DLP Image Display 2.0, the Laser Image Display 2.0, the LaserGlass (lglass), or/and the LaserPaper (lpaper). To the tech- nological essentials belong the paradigm of the Wave-Field Comput- ing and the technique of the Wave-Field Synthesis/Rendering of light-fields and ultra sound-fields, which are made in the same way, as the sound-field rendering generates audible sound. In this way not only totally amazing building concepts can be created, which are the first augmented reality and fully immersive virtual reality environ- ments, that do not need special glasses or Head-Mounted Displays (HMDs), but even true holodecks, like shown in the Star Trek® saga.

 

   
Holonicle™::123Laser™ 2002
123Laser hat holographische Monitore auf der Basis der Laser- technologie entwickelt. Die elementaren Bauteile sind bei unserer Lösung 3 unabhängige Lasereinheiten, die mit tausenden kleinsten Lasern bestückt sind, sowie 3 zugehörige Mikrospiegel auf der Basis von Microchips, wie sie aus modernen Projektoren bekannt sind. Durch das Emittieren von unsichtbarem Licht im Infrarotbereich und die Bündelung der Strahlen im 3 dimensionalen Raum kann nicht nur rotes, grünes und blaues Licht erzeugt werden, sondern auch alle anderen Farbtöne, deren Helligkeit und deren Bündelungskoordinaten im Raum.
123Laser has developed holographic displays on laser-based techno- logy. The elementary parts of our solution are 3 laser units, with thousands of tiny lasers, and 3 accessory micro-mirrors on the basis of chips as they are used in normal projectors. By emitting invisible light in the infrared scale and the bundling of the rays in the three- dimensional space, it is not only possible to generate red, green, and blue light, but also all other colors of the spectrum of visible light, their brightness, and the coordinates of the bundeling.

 

   
     
Retina Projector™/Retina Screen™ 1.0 7.November.2010
Der Retinabildschirm/Retinaprojektor ist eine intelligente Anzeige- technologie, die nicht wie die Retinaanzeigen der ersten Generation exakt zu den Augen ihrer Benutzerin/ihres Benutzers positioniert wer- den muss, weil ihr Sensor sehr präzise den Positionen der Augen folgt und hierdurch Lichtstrahlen von einem oder mehreren kleinen Lasern direkt in ihre/seine Augen strahlen kann, so dass mit zwei Augen ein 3D-Bild im Gehirn erzeugt wird. Mit einigen Versionen kann diese Pro- jektionstechnik sogar in 360° um die Anzeige herum oder/und mit mehreren Personen gleichzeitig sowie Multitouch-Eigenschaft reali- siert werden. Außerdem können System, die auf dieser Technologie basieren, stationär oder mobil und in unterschiedlichen Größen di- mensioniert sein, sodass z. B. auch die Realisierung von digitalen 3D-LASER-Projektoren für Kinos/Filmtheater und 4D-Kinos möglich ist.
The Retina Projector/Retina screen is an intelligent display technolo- gy that doesn't need to be positioned exactly to the eyes of its user like the retina displays of the first generation, because its sensor follows very precisely the positions of the eyes and in this way can radiate light beams by one or more small lasers directly into her/his eyes, so that with two eyes a 3D image is created in the brain. With some versions this technique of projection can be realized even in 360° around the display or/and with multiple persons simultaneously as well as multi-touch feature. Moreover, systems that are based on this technology can be stationary or mobile, and dimensioned in var- ious sizes, so that e.g. the realization of digital 3D LASER projectors for cinemas/movie theatres and 4D cinema is possible as well.

 

   
Retina Projector™/Retina Screen™ 2.0 28.February.2011
Der Retinaprojektor/Retinabildschirm 2.0 integriert die kinetische Be- nutzerschnittstelle und die anderen Retinaprojektoren/Retinabild- schirme, die auf die zusätzlichen Sensoren fokusiert ist, wie z. B. die Drehmoment- und Trägheitssensoren für die Bewegungsverfolgung des Gerätes und nicht die Systeme für die Registrierung, Erkennung und Bewegungsverfolgung der Benutzerin/des Benutzers sowie die Anwendungen, die mit der mobilen Bewegungssensorentechnologie MobileKinetic gegeben sind.
The Retina Projector/Retina Screen 2.0 integrates the kinetic user interface and the other Retina Projectors/Retina Screens, that is focused on the addtional sensors, like e.g. the torque and inertial sensors for the motion tracking of the device and not the systems for the registering, scanning, and motion tracking of the user, as well as the applications, which are given with the mobile motion sensor technology MobileKinetic.

 

   
Retina Projector™/Retina Screen™ 3.0 11.March.2011
Der Retinaprojektor/Retinabildschirm 3.0 integriert die Technologie des haptischen Bildschirms und die anderen Retinaprojektoren/ Retinabildschirme.
The Retina Projector/Retina Screen 3.0 integrates the technology of the haptic display and the other Retina Projectors/Retina Screens.

 

   
Retina Projector™/Retina Screen™ 4.0 28.August.2012
Der Retinaprojektor/Retinabildschirm 4.0 integriert die Parionik und die anderen Retinaprojektoren/Retina- bildschirme.
The Retina Projector/Retina Screen 4.0 integrates parionics and the other Retina Projectors/Retina Screens.

 

   
Retina Projector™/Retina Screen™ 5.0 200x
Der Retinaprojektor/Retinabildschirm 5.0 bezeichnet die Ultra-Versionen der anderen Retinaprojektoren/Retinabildschirme.
The Retina Projector/Retina Screen 5.0 refers to the Ultra versions of the other Retina Projectors/Retina Screens.

 

   
Retinascope™ 1.0 8.November.2010
Das Retinaskop integriert eine Kamera mit einem oder mehreren Ob- jektiven und den verschiedenen Retinaprojektoren/Retinabildschirmen fur die Aufnahme von Fotos oder Filmen.
The Retinascope integrates a camera with one or more lenses and the different Retina Projectors/Retina Screens for taking photos or making videos.

 

   
Retinascope™ 2.0 28.February.2011
Das Retinaskop 2.0 integriert die MobileKinetic-Technologie und die anderen Retinaskope, die auf die zusätzlichen Sensoren, wie z. B. die Drehmoment- und Trägheitssensoren für die Bewegungsverfolgung des Gerätes und nicht die Systeme für die Registrierung, Erkennung und Bewegungsverfolgung der Benutzerin/des Benutzers sowie die Anwendungen fokusiert ist, die mit der mobilen Bewegungssensoren- technologie MobileKinetic gegeben sind.
The Retinascope 2.0 integrates the MobileKinetic technology and the other Retinascopes, that is focused on the addtional sensors, like e.g. the torque and inertial sensors for the motion tracking of the device, and not the systems for the registering, scanning, and motion tracking of the user, as well as the applications, which are given with the mobile motion sensor technology MobileKinetic.

 

   
Retinascope™ 3.0 11.March.2011
Das Retinaskop 3.0 integriert die Technologie des haptischen Bild- schirms und die verschiedenen Retinaskope.
The Retinascope 3.0 integrates the haptic display technology and the different Retinascopes.

 

   
Retinascope™ 4.0 11.August.2012
Das Retinaskop 4.0 integriert die Parionik und die verschiedenen Retinaskope.
The Retinascope 4.0 integrates the field of parionics and the different Retinascopes.

 

   
Retinascope™ 5.0 200x
Das Retinaskop 5.0 bezeichnet die Ultra-Versionen der verschiedenen Retinaskope.
The Retinascope 5.0 refers to the Ultra versions of the different Retinascopes.

 

   
Loudspeaker 2.0 7.June.2013
Charakteristisch für unsere Lautsprecher 2.0 ist, dass sie Techniken, wie die Körperabtastung, inklusive z. B. der Kopf- und der Oberkör- perbewegungsregistrierung/-verfolgung, der Gesichtsabtastung, in- klusive z. B. der Augen- und der Blickbewegungsregistrierung/-ver- folgung, oder/und der Gesichtserkennung, aber auch der Sprach- steuerung besitzen. Hierdurch ermöglichen sie interessante Anwen- dungen für alle unsere Geräte, wie etwa Fernseher, Projektoren, E-Bücher, Smartfone, Tablet- und Pad-Computer, Notebooks==Klapp- rechner, Kameras, Amaturenbretter, E-Tapeten und E-Wände und so weiter. Zu den interessantesten Möglichkeiten zählen die Darstellung von 3D-Klang, die Verfolgung von Körperbewegungen für die Musik- auswahl und die Optimierung des Klangs durch zum Beispiel exakte Steuerung der Töne aber gegbenenfalls auch durch die Ausrichtung der Lautsprecher selber. Daneben ist auch die Steuerung mit unserer smarten Fernbedienung, die Kombination mit unseren anderen stationären und mobilen Geräten und die Integration mit unserem Sp@ce-Ansatz und unserem Surround Sensor System möglich. Sicherlich können unser Lautsprecher auch allgemeine Daten über eine/einen ZuhörerIn liefern, wie das Geschlecht oder das Alter, ohne dabei ihre Privatsphäre und ihren Schutz der Daten zu verletzen, wie zum Beispiel durch die Identifizierung einer bestimmten Person. Hierdurch erlauben und helfen unsere Lösungen BenutzerInnen und Unternehmen Dienste genau vorzugeben, wie z. B. Werbung, Nachrichten, and specific informations, aber auch Aktivität und Interaktivität und so viele mehr. Selbstverständlich hat eine/ein BenutzerIn die Wahlmöglichkeit solche Ausstattungen eines Geräts selbstständig zu aktivieren um auf der einen Seite volle Kontrolle über ihre/ seine Privatspähre zu behalten. Aber auf der anderen Seite geben unsere Lösungen jedem auch den Vorteil neue und sicherlich bessere Modelle des Abonnierens, Bewertens und Bewerbens generell und nicht nur im Bereich des Fernsehens zu genießen.
Characteristical for our Loudspeakers 2.0 is, that they feature techniques, like the body scanning, inclusive e.g. the head tracking and the torso tracking, the facial scanning, inclusive e.g. eye track- ing and gaze tracking, or/and the facial recognition, but also the voice/speech control. In this way they enable interesting applications for all of our devices, like e.g. televisions, projectors, e-books, smartphones, tablet and pad computers, notebooks, cameras, dashboards, e-wallpapers and e-walls, and so on. To the most interesting possibilities belong the presentation of 3D sound, the tracking of body motions for the selection of music, and the optimization of the sound by for example exact control of the tones, but also by the alignment of the loudspeakers possible where required. Besides this, the control with our Smart Remote Control, the combination with our other stationary and mobile devices, and the integration with our Sp@ce approach and our Surround Sensor System. For sure, our loudspeakers can also provide general data about a viewer, like the gender or the age, but do not infringe the protection of a user's privacy and data by for example identify- ing a specific person. In this way our solutions are supporting users and companies to preset services exactly, like e.g. advertisement, news, and informations, but also activity and interactivity, and so many more. Naturally, a user has the option to enable such features of a device on her/his own to keep full control over her/his privacy on the one side. But on the other side our solutions also give everybody the opportunity to enjoy new and surely better models of subscribing, rating, and advertising in general and not only in the field of the television.

 

   
     
Workbench™ 2.0 14.July.2012
Die Virtuelle Realität (VR) Werkbank 2.0 integriert kinetische Techno- logien, inklusive der Techniken der Körper-, Augen- und Blickregist- rierung und -verfolgung, und die anderen stationären VR Werkbank- systeme. Systeme dieser Art können z. B. auch als Fernseher ge- nutzt werden.
The Virtual Reality (VR) Workbench 2.0 integrates kinetic technolo- gies, inclusive the body, eye, and gaze registering and tracking techniques, and the other VR workbench systems. Systems of this kind can also be used as e.g. TV.

 

   
Workbench™ 3.0 14.July.2012
Die Virtuelle Realität (VR) Werkbank 3.0 integriert die Technologie des haptischen Bildschirms und die verschiedenen stationären VR Werkbanksysteme.
The Virtual Reality (VR) Workbench 3.0 integrates the haptic display technology and the different stationary VR workbench systems.

 

   
Workbench™ 4.0 13.August.2012
Die Virtuelle Realität (VR) Werkbank 4.0 integriert die Parionik und die verschiedenen stationären Virtuelle Realität Werkbanksysteme und wird somit die Gemischte Realität Werkbank.
The Virtual Reality (VR) Workbench 4.0 integrates parionics and the different stationary VR workbench systems and hence becomes the Mixed Reality (MR) workbench.

 

   
     
Mobile Workbench™ 1.0 26.October.2010
Die Technologie der mobilen Werkbank wendet mobile Projektoren wie unsere NanoProjektoren und Spiegel an um wie die stationären Vir- tuelle Realität Werkbanksysteme eine immersive dreidimensionale Um- gebung zu schaffen. Die Bauweisen und Projektionsflächen der Sys- teme können dazu flach und L-förmig als auch (auf)klappbar sein.
The Mobile Workbench technology applies mobile projectors like our NanoProjectors and mirrors to create immersive three-dimensional environments like the stationary virtual reality workbench systems. For this the construction forms and the projection surfaces of the systems can be flat and L-shaped as well as collapsible/foldable.

 

   
Mobile Workbench™ 2.0 14.July.2012
Die mobile Werkbank 2.0 integriert die MobileKinetic-Technologie, in- klusive der Techniken der Augen- und Blickverfolgung, und die ande- ren mobilen Werkbänke.
The Mobile Workbench 2.0 integrates the MobileKinetic technology, inclusive the eye and gaze tracking techniques, and the other mobile workbenches.

 

   
Mobile Workbench™ 3.0 14.July.2012
Die mobile Werkbank 3.0 integriert die Technologie des haptischen Bildschirms und die verschiedenen mobilen Werkbanksysteme.
The Mobile Workbench 3.0 integrates the haptic display technology and the different mobile workbenche systems.

 

   
Mobile Workbench™ 4.0 13.August.2012
Die mobile Werkbank 4.0 integriert die Parionik und die verschiedenen mobilen Werkbanksysteme.
The Mobile Workbench 4.0 integrates the field of parionics and the different mobile workbenche systems.

 

   
     
SmartWorkbench™ 1.0 14.July.2012
Die smarte Werkbank bezeichnet die Integration von Mobiltelefonen, Tablet- und Pad-Computern und anderen mobilen Geräten mit unse- ren mobilen Werkbanksystemen. Dazu ist die smarte Werkbank (auf-) klappbar (z. B. Schmetterlingmechanismus) und besitzt ein Spiegel- system, das einen 3D-Effekt ohne die Notwendigkeit einer speziellen Brille erzeugt.
The SmartWorkbench denotes the integration of mobile/cell phones, tablet and pad computers, and other mobile devices, with our mobile workbench systems. Thereto a SmartWorkbench is collapsible/fold- able (e.g. butterfly mechanism), and features a mirror system that creates a 3D effect without the need for a special glasses.

 

   
SmartWorkbench™ 2.0 14.July.2012
Die smarte Werkbank 2.0 integriert die MobileKinetic-Technologie, inklusive der Techniken der Augen- und Blickverfolgung, und die anderen smarten Werkbanksysteme.
The SmartWorkbench 2.0 integrates the MobileKinetic technology, inclusive the eye and gaze tracking techniques, and the other SmartWorkbenches.

 

   
SmartWorkbench™ 3.0 14.July.2012
Die smarte Werkbank 3.0 integriert die Technologie des haptischen Bildschirms und die verschiedenen smarten Werkbanksysteme.
The SmartWorkbench 3.0 integrates the haptic display technology and the different SmartWorkbenches.

 

   
SmartWorkbench™ 4.0 13.August.2012
Die smarte Werkbank 4.0 integriert die Parionik und die verschie- denen smarten Werkbanksysteme.
The SmartWorkbench 4.0 integrates parionics and the different SmartWorkbenches.

 

   
     
Colored E-paper 200x
Das farbige elektronische Papier hat eine Konstruktionsweise die auf Kugeln basiert, die wie ein Würfel auf sechs Seiten leuchtende Pigmente, eventuell aus organischem Material bestehend, mit den drei Grundfarben Rot, Grün und Blau oder alternativ Gelb sowie optional Schwarz und Weiß besitzen und einen internen Aufbau haben, sodass sie schnell rotiert werden können und die richtige Seite beziehungsweise Farbe zur Oberfläche zeigt. Diese Konstruktionsvariante besitzt zwei Versionen. Die eine Version hat auf jeweils zwei Seiten die gleiche Grundfarbe und eignet sich besonders für ein flüssiges Darstellen und zeigt somit immer eine farbiges Bild an. Die andere Version hat auch eine Schwarze und Weiße Seite und kann deshalb besonders für papierbasierte Anwendung genutzt werden und auch so geschaltet werden, dass es eine schwarze Darstellung gibt. Andere Versionen sind natürlich durch entsprechende Färbung möglich. Die dritte Variante basiert auf vier Schichten und zwar eine für jede Grundfarbe und eine lichtabsorbiernde Schicht.
The colored e-paper has a way of construction that is based on spheres, which have like a cube on six sides very bright pigments, eventually consisting of organic material, with the three basic colours red, green, and blue or alternatively yellow, and optionally also black and white, and an internal structure, so that they can be rotated rapidly and the right side respectively color points towards the surface. One version has on each two sides the same basic colour, and hence is especially suited for fluid displaying and shows a colored surface all the time. For sure, other versions are possible with the related colouring.

 

   
Colored E-ink 200x
Die farbige elektronische Tinte basiert auf einem Material, das kleine Kammern mit einer Flüssigkeit und verschieden farbigen Elementen besitzt, die auf elektromagnetische Kräfte unterschiedlich reagieren. Diese Konstruktionsweise besitzt drei Varianten. Die eine Variante hat nur ein Element in jeder Zelle und funktioniert wie eine normale Anzeige indem jeder Pixel gesteuert wird, der die spezielle Farbe enthält. Die nächste Variante hat mehr als ein Element in seinen Zellen. Durch das Anlegen der richtigen Spannung oder/und Frequenz kann ein bestimmtes Element zur Oberfläche bewegt werden, wo es verbleibt während die anderen Elemente am Boden der Zelle sind. Im letzteren Fall ist eine Version möglich, die die Farbe direkt in der Zelle mischt. Die dritte Variante basiert auf vier Schichten und zwar eine für jede Grundfarbe und eine lichtabsorbiernde Schicht.
The colored e-ink is based on a material that has small cells filled with a fluid and different colored elements that react to electromagnetical forces in different ways. This way of construction has two variants. The one version has only one element in each cell and functions like a common display by controlling each pixel that contains the specific colour. The other variant has more than one element in its cells. By applying the right voltage or/and frequency a specific element can be moved to the surface, where it stays while the other elements are on the bottom of the cell. In the latter case a version is possible that mixes the colours directly in the cell by moving more than one element to the surface. The thrid variant is based on four layers one for each basic color and one light absorbing layer.

 

   
Stretch Display 200x
Did dehnbare Anzeige wird auf die gleichen Weisen wie der dehnbare Akkumulator aufgebaut, aber besitzt ein lichtemittierendes Material anstatt eines energiespeichernden Materials.
The Stretch Display is constructed in the same ways like the Strech Accumulator/Battery, but has a light-emitting material instead of an energy storing material.

 

   
Stretch Screen 200x
Der dehnbare Schirm wird auf die gleichen Weisen wie der dehnbare Akkumulator aufgebaut, aber besitzt ein kraftfeldproduzierendes Ma- terial anstatt eines energiespeichernden Materials.
The Stretch Screen is constructed in the same ways like the Strech Accumulator/Battery, but has a force field producing material instead of an energy storing material.

 

   
Super and Ultra Device™ 200x
Die Ultra-Geräte verwenden unsere neusten Ansätze, Konzepte, Pa- radigmen, Techniken sowie Anzeige- und Schirmtechnologien. Aber anstatt all die vielen Eigenschaften aufzulisten, können wir sie auch mit einem Wort beschreiben: Flexibel.
Die Ultra-Geräte werden nach unserer speziellen Sandwich-Bauweise konstruiert. Die obere Decklage ist die Anzeige, die je nach Geräte- modell und -variante eine Anzeigen auf der Basis der Organischen LichtEmittierenden Diode==Organic Light-Emitting Diode (OLED), eine mehrschichtige Anzeige==Multi-Layer/stacked Display (MLD), eine berührungssensitive Ein- oder Mehrfingeranzeige, eine aktive Anzeige ==Active Display oder eine haptische Anzeige ist. Die zwischen der oberen und unteren Decklage eingebettete Kernlage beinhaltet die Elektronik mit dem Computersystem. Eine weitere Schicht/Lage ist der flexible (hauch)dünne Akkumulator, der zum Beispiel aus einem gewobenen Akkutextil/-stoff==Accu Fabric oder/und einem Vliesstoff hergestellt ist, die Seperatoren aus einem (mikroporösen) keramikbe- schichteten Film oder einem anderen geeigneten Material besitzen, oder/und einem dehnbaren Akkumulator==Stretch Accumulator be- steht. Diese Akkumulatortypen werden aus Sicherheitsgründen auch im Bereich von Elektrofahrzeugen genutzt. Zudem kann auch die ka- bellose Akkumulatortechnologie verwendet werden. Der Akkumulator ist mit einer Geräteschicht entweder permanent verbunden oder kann durch eine geeignete Vorrichtung abgenommen werden (siehe unser Konzept des Pad Computers). Die Ultra-Geräte können mit zu- sätzlichen Schichten/Lagen, Komponenten, Zusätzen und Eigen- schaften aller Art erweitert werden, wie flexible Lautsprecher, Kame- ras, zusätzliche Benutzerschnittstellen und unsere anderen Lösun- gen, wie sie z. B. mit den Ontoscope Modellen 3 und 3D und dem intelliTablet Modell 3D bereits gezeigt wur- den. Die untere Decklage ist entweder die Schutzhülle eines Ultra-Gerätes oder Teil eines ab- nehmbaren Akkumulators.
Selbstverständlich können Ultra-Geräte unterschiedliche Größen ha- ben. Außerdem müssen stationäre und mobile Geräte, die nach unse- rem geschichteten Sandwich-Ansatz konsturiert werden, im Allge- meinen nicht flexible sein, wie zum Beispiel ein Tablet-Computer, der eine OLED basierte berührungssensitive Mehrfingeranzeige und einen Dünnfilmakkumulator besitzt oder ein Fernseher.
The Ultra Devices use our newest approaches, concepts, paradigms, techniques, and also display and screen technologies. But instead of listing all the many features, we could also describe them with one simple word: Flexible.
The Ultra Devices are fabricated in accordance with our special sandwich construction method. The upper sheet/layer/skin is the display, that is based on the Organic Light-Emitting Diode (OLED) display, a Multi-Layer/stacked Display (MLD), a touch or multi-touchscreen, an Active Display, or a Hapticle Display depending on the device model and variant. The core layer embedded between the upper and lower layer contains the electronics with the computer system. A further layer is the flexible (paper-thin) battery/accumul- ator, that for example is made out of a woven Accu Fabric or/and a non-woven fabric, which feature seperators made out of a (micro- porous) ceramic coated film or other suitable materials, or/and con- sists of a Stretch Accumulator. These types of battery/accumulator are also used in the field of electric vehicles for safety reasons. In addition, the wireless battery/accu technology can be applied. The battery/accumulator is either permanently joined to a device layer or can be connected by a suitable feature (see our concept of the Pad Computer). The Ultra Devices can be extended with additional layers /sheets, components, add-ons, and features of all kinds, like flexible loudspeakers, cameras, additional user interfaces, and our other sol- utions, as already shown with the Ontoscope models 3 and 3D, and the intelliTablet model 3D.
For sure, Ultra Devices can have different sizes. Also, stationary and mobile devices, which are constructed after our layered sandwich-structure approach, must not be flexible in general, like for example a tablet computer that features an OLED based multi-touchscreen and a flexible battery/accumulator or a television.

 

   
     
Beamed Energy Image Display 4.June.2012
Die Beamed Energy Image Display==gestrahlte Bildanzeige ist eine Technologie, die wie eine Laser-Bildanzeige funktioniert, dabei aber die Strahlung nicht für die Projektion des eigentlichen Bildes verwen- det, sondern für die Übertragung der Energie für die bildgebenden lichtemittierenden Elemente der Bildfläche, die entweder elektrolumi- neszierende, fluoreszierende oder andere geeignete Eigenschaften besitzende Elemente sind. Hierdurch werden keine Elektroden in der Projektionsfläche für die Herstellung eines Spannungsunterschiedes für die Addressierung der einzelnen Bildpunkte benötigt und somit auch keine Stromversorgung für die Bildfläche.
The Beamed Energy Image Display is a technology that functions like a laser image display, thereby using the emission not for the project- ion of the image itself, but for the transfer of the energy for the displaying light-emitting elements of the screen, which are either electroluminescent, fluorescent, or other suitable properties having elements. In this way, no electrodes in the projection surface are needed for the creation of a potential difference for the addressing of the single pixels, and so no power supply for the screen is need- ed.

 

   
Beamed Energy Screen 10.June.2012
Der gestrahlte Energie-Schirm==Beamed Energy Screen ist eine Technologie, die unsere gestrahlte Energieübertragung anwendet um mechanische Wellen zu erzeugen, wie Schallwellen für hörbare Ge- räusche für Lautsprecher und Ultraschallwellen für fühlbare Druck- wellen für haptische Lautsprecher, dabei aber die Strahlung nicht für die Projektion der eigentlichen Druckwellen verwendet, sondern für die Übertragung der Energie für die schallerzeugenden Elemente des Schirms. Hierdurch werden keine Elektroden in die Projektionsfläche für die Herstellung eines Spannungsunterschiedes für die Addressie- rung der einzelnen Bildpunkte benötigt und somit auch keine Strom- versorgung für die Schirmfläche.
The Beamed Energy Screen is a technology that applies our Beamed Energy Link (BEL) to generate mechanical waves, like sound waves for audible sound for loud-speakers and ultra sound waves for perc- eptible pressure waves for haptic speakers, thereby using the emiss- ion not for the projection of the sound waves proper, but for the beaming of the energy for the wave-emitting elements of the speak- er. In this way no electrodes in the projection surface are needed for the creation of a potential difference for and the addressing of the single pixels, and so no power supply for the screen is needed.

 

   
Beamed Energy Paper 10.June.2012
Das Beamed Energy Paper==gestrahlte Energie-Papier ist eine Tech- nologie, das unsere gestrahlte Energieübertragung anwendet um me- chanische Wellen zu erzeugen, wie Schallwellen für hörbare Geräu- sche für Lautsprecher und Ultraschallwellen für fühlbare Druckwellen für haptische Lautsprecher, dabei aber die Strahlung nicht für die Projektion der eigentlichen Druckwellen verwendet, sondern für die Übertragung der Energie für die schallerzeugenden Elemente des Pa- piers. Hierdurch werden keine Elektroden in der Projektionsfläche für die Herstellung eines Spannungsunterschiedes für die Addressierung der einzelnen Bildpunkte benötigt und somit auch keine Stromversor- gung für das Papier.
The Beamed Energy Paper is a technology that applies our Beamed Energy Link (BEL) to generate mechanical waves, like sound waves for audible sound for loud-speakers and ultra sound waves for haptic speakers, thereby using the emission not for the projection of the sound waves proper, but for the beaming of the energy for the wave-emitting elements of the speaker. In this way no electrodes in the projection surface are needed for the creation of a potential difference for and the addressing of the single pixels, and so no power supply for the paper is needed.

 

   
Beamed Energy Speaker 10.June.2012
Der gestrahlte Energie-Lautsprecher==Beamed Energy Speaker ist eine Technologie, die unsere gestrahlte Energieübertragung anwen- det um mechanische Wellen zu erzeugen, wie Schallwellen für hör- bare Geräusche für virtuelle Lautsprecher und Ultraschallwellen für fühlbare Druckwellen für haptische Lautsprecher, dabei aber die Strahlung nicht für die Projektion der eigentlichen Druckwellen ver- wendet, sondern für die Übertragung der Energie für die druckwellen- erzeugenden Elemente des Lautsprechers. Hierdurch werden keine Elektroden in der Projektionsfläche für die Herstellung eines Span- nungsunterschiedes für die Addressierung der einzelnen Schallpunkte benötigt und somit auch keine Stromversorgung für den Lautspre- cher.
The Beamed Energy Speaker is a speaker technology that applies our Beamed Energy Link (BEL) to generate mechanical waves, like sound waves for audible sound for virtual loud-speakers and ultra sound waves for haptic speakers, thereby using the emission not for the projecting of the pressure waves proper, but for the beaming of the energy for the pressure wave-emitting elements of the speaker. In this way no electrodes in the projection surface are needed for the creation of a potential difference for and the addressing of the single sound points, and so no power supply for the speaker is needed.

 

   
Beamed Energy Display 10.June.2012
Die gestrahlte Energie-Ausgabeanzeige== Beamed Energy Display ist eine Bildschirmtechnologie, die wie eine haptische Anzeige funktio- niert, dabei aber die Strahlung nicht für die Projektion der eigentlichen Druckwellen verwendet, sondern für die Übertragung der Energie für die wellenaussendenden Elemente der Projektionsfläche, die entweder elektrolumineszierende, fluoreszierende oder andere geeignete Eigenschaften besitzende Elemente sind. Hierdurch werden keine Elektroden in der Projektionsfläche für die Herstellung eines Spannungsunterschiedes für die Addressierung der einzelnen Punkte benötigt und somit auch keine Stromversorgung für die Fläche. vereinigen gestrahlte Energie-Schirme==Beamed-Energy-Screens, gestrahlte Energie-Lautsprecher==Beamed-Energy-Speakers oder/und haptischen Lautsprecher==Haptic-Speakers mit optischen Anzeigen aller Typen. Die Technologie kann in beliebige Geräte eingebaut werden
The Beamed Energy Display is a display technology that functions like a haptic display, thereby using the emission not for the projecting of the pressure waves proper, but for the transfer of the energy for the wave-emitting elements of the display. In this way no electrodes in the projection surface are needed for the creation of a potential difference for and the addressing of the single tixels, and so no power supply for the screen is needed. incorporate beamed energy screens or/and haptic speakers with visual displays of all types. The technology can be built into any devices

 

   
     
MultiWave™ 10.June.2012
Aus der Kinetikfeld-==Kinetic-Field-Technologie haben wir unseren MultiWave-Ansatz als ein neues allgemeines Multimediaparadigma entwickelt, das die schon existierenden Multimediatechnologien und -paradigmen mit unseren Wellenfeldtechnologien und unserem Wellenfeldrechenparadigma kombiniert und so bereits zu neuen Multimediakonzepten und -geräten führte, wie die Technologien TouchWave und Haptikfeld==Haptic-Field, das SpaceWave-Konzept, der Wellentisch==WaveTable, die Wellenwand==WaveWall und die iWave Tablet- und Pad-Computerserien.
Out of the Kinetic-Field technology we have developed our MultiWave approach as a new general multimedia paradigm, which combines the yet existing multimedia technologies and paradigms with our wave-field technologies and our wave-field computing paradigma, and thus already resulted into fur- ther new multimedia concepts and devices, like the technologies TouchWave and Haptic-Field, the SpaceWave concept, the WaveTable, the WaveWall, and the iWave tablet and pad computer series.

 

   
Light-Field Lens™ 5.June.2012 and 01.01.2013
Wir haben Lichtfeldobjektive, insbesondere 3D-Lichtfeldobjektive, in vielen verschiedenen Varianten mit Teleskopmechanismus oder/und Wechselsystem mit zum Beispiel Bayonettverschluß, wie sie von sogenannte Systemkameras aufgewiesen werden, sowie Integrationsmöglichkeiten mit anderen mobilen Endgeräten wie unter anderem Mobiltelefon und Smartfon, Tablet- und Pad-Computer, und zudem Retinaprojektor und Retinaskop erforscht und entwickelt.
Die Lichtfeldobjektive haben die Wellenfeldtechnologie eingebaut, sodass insbesondere mobile Geräte, wie Mobiltele-/Smartfone und Kameras, das Prinzip auch nutzen können. Durch die Nutzung von direkten Kontakten, falls ein Gerät wie eine Systemkamera diese bereits besitzt, ein einfaches Kabel, oder eine Netzwerkverbindung, die sogar kabellos sein kann, werden die Erweiterungen gesteuert und die Daten transportiert.
We have researched and developed Light-Field Lenses, specifically 3D light-field lenses, in many different variants with telescope mechanism or/and changing system with for example bayonet catch, as featured by so-called system cameras, as well as possibilities of integration with other mobile devices, like digital photo and video camera, mobile/cell phone and smartphone, tablet and pad computer, and also retina projector and retinascope among others.
The Light-Field Lenses have the wave-field technology built inside, so that specifically mobile devices, like mobile/cell/smartphones and cameras, can use the principle as well. The extensions are controlled and the data are transported by the utilization of special contacts, if a device like a system camera already features them, a simple cable, or a network connection that could even be wireless.

 

   
Ray-Field Lens™ 5.June.2012 and 01.01.2013
Unsere Strahlenfeldobjektive bieten die gleichen generellen Konstruk- tionsmerkmale, Funktionen und Varianten wie unsere Lichtfeldobjektive, aber sie können auch elekromagnetische Wellen mit anderen Frequenzen als sichtbares Licht erfassen. Zu ihren Anwendungsfeldern zählen zum Beispiel die Künste, die Wissenschaften, die Medi- zin und das Ingenieurswesen. Spezielle Anwendungen sind Bauteile von Maschinen wie Vehikel und Roboter, Computer, Konsumentenelektronikgeräte, und die 2D- und 3D-Infrarot-/Wärmebildkameras.
Our Ray-Field Lenses offer the same general constructional features, functions, and variants like our light-field lenses, but they can also capture electromagnetic waves with other frequencies than visible light. To their fields of application belong for example the arts, the sciences, the medicines, and the engineering. Specific applications are components of machines, like vehicles and robots, computer, consumer electronics, and the 2D und 3D infrared/thermographic/thermal imaging cameras.

 

   
Sound-Field Microphone™ 6.June.2012 and 01.01.2013
Unsere Schallfeldmikrofone bieten die gleichen generellen Konstruk- tionsmerkmale, Funktionen und Varianten wie unsere Lichtfeldobjektive und Wellenfeldobjektive, aber sie erfassen hörbare akustische Wellen. Spezielle Anwendungen sind Bauteile von Maschinen wie Vehikel und Roboter, Computer, Konsumentenelektronikgeräte, und die 2D- und 3D-Mikrofone.
Our Sound-Field Microphones offer the same general constructional features, functions, and variants like our light-field lenses and ray-field lenses, but capture audible acoustic waves. Specific applications are components of machines, like vehicles and robots, computers, consumer electronics, and the 2D und 3D microphones.

 

   
Wave-Field Microphone™ 6.June.2012 and 01.01.2013
Unsere (mechanischen) Wellenfeldmikrofone bieten die gleichen generellen Konstruktionsmerkmale, Funktionen und Varianten wie unsere Schallfeldmikrofone, aber erfassen auch mechanische Wellen mit anderen Frequenzen als auditiv wahrnehmbare akustische Wellen/Schall. Spezielle Anwendungen sind Bauteile von Maschinen wie Vehikel und Roboter, Computer, Konsumentenelektronikgeräte und die 2D- und 3D-Mikrofone.
Our (Mechanical) Wave-Field Microphones offer the same general constructional features, functions, and variants like our sound-field microphones, but capture also mechanical waves with other frequencies than audible acoustic waves/sound. Specific applications are components of machines, like vehicles and robots, computer, consumer electronics, and the 2D und 3D microphones.

 

   
Light-Field Camera 5.June.2012
Wir haben Lichtfeldkameras, insbesondere 3D-Lichtfeldkameras, in vielen verschiedenen Varianten mit einem oder mehreren Objektiven, 2D- und 3D-Bildschirm und Teleskopmechanismus oder/und Wechsel- system mit zum Beispiel Bayonettverschluß, wie sie von sogenannte Systemkameras aufgewiesen werden, sowie Integrationsmöglichkei- ten mit anderen mobilen Endgeräten wie unter anderem Mobiltelefon und Smartfon, Tablet- und Pad-Computer, und zudem Retinaprojektor und Retinaskop erforscht und entwickelt. Zusätzliche optionale Ei- genschaften sind der Elektronische WellenfeldFinder (EWF) und der Elektronische View-Finder (EVF)==elektronische Finder (Sucher) sowie die Funktion AutoFokus (AF), die unser Wellenfeldrechnen zur Phasenerkennung beziehungsweise WellenfeldDetektion (WD).
We have researched and developed Light-field Cameras, specifically 3D Light-Field Cameras, in many different variants with one or more lenses, 2D and 3D, and also touch display, and telescope mechanism or/and changing system with for example bayonet catch, as featur- ed by so-called system cameras, as well as possibilities of integrat- ion with other mobile devices, like digital photo and video camera, mobile/cell phone and smartphone, tablet and pad computer, and also retina projector and retinascope among others. Additional opt- ional features are the Electronic Wave-field-Finder (EWF) and the Electronic View-Finder (EVF), and also the function AutoFocus (AF), which utilizes our wave-field computing for Phase Detection (PD) respectively Wave-field Detection (WD).

 

   
Ray-Field Camera™ 5.June.2012
Unsere Strahlenfeldkameras bieten die gleichen generellen Konstruk- tionsmerkmale, Funktionen und Varianten wie unsere Lichtfeldkame- ras, aber sie können auch elekromagnetische Wellen mit anderen Frequenzen als sichtbares Licht erfassen. Zu ihren Anwendungsfel- dern zählen zum Beispiel die Künste, die Wissenschaften, die Medi- zin und das Ingenieurswesen.
Our Ray-Field Cameras offer the same general constructional feat- ures, functions, and variants like our light-field cameras, but they can also capture electromagnetic waves with other frequencies than visible light. To their fields of application belong for example the arts, the sciences, the medicines, and the engineering.

 

   
Sound-Field Recorder™ 6.June.2012
Unsere Schallfeldrekorder bieten die gleichen generellen Konstruk- tionsmerkmale, Funktionen und Varianten wie unsere Lichtfeldkame- ras und Wellenfeldkameras, aber sie erfassen hörbare akustische Wellen. Zusätzliche Eigenschaften sind der Elektronische Wellenfeld- Finder (EWF) und der Elektronische Sound-Finder (ESF)==Schall- finder(/-sucher) sowie die Funktion AutoFokus (AF), die unser Wel- lenfeldrechnen zur Phasenerkennung beziehungsweise Wellenfeld- Detektion (WD) nutzt. Zu ihren Anwendungsfeldern zählen zum Beispiel die Künste, die Wissenschaften, wie etwa die Medizin und das Ingenieurswesen, und gesellschaftliche Dienste, insbesondere Militär, Polizei, und Rettungs-, Feuerwehr- und Notfalldienste.
The Sound-Field Recorders offer the same general constructional features, functions, and variants like our light-field cameras and ray-field cameras, but capture audible acoustic waves. Additional features are the Electronic Wave-field-Finder (EWF) and the Elec- tronic Sound-Finder (ESF), and also the function AutoFocus (AF), which utilizes our wave-field computing for Phase Detection (PD) respectively Wave-field Detection (WD). To their fields of application belong for example the arts, the sciences, as e.g. the medicines and the engineering, and social services, especially military, police, and rescue, fire, and emergency services.

 

   
Wave-Field Recorder™ 6.June.2012
Unsere (mechanischen) Wellenrekorder bieten die gleichen generel- len Konstruktionsmerkmale, Funktionen und Varianten wie unsere Schallfeldrekorder, aber erfassen auch mechanische Wellen mit an- deren Frequenzen als auditiv wahrnehmbare akustische Wellen/ Schall. Zu ihren Anwendungsfeldern zählen zum Beispiel die Künste, die Wissenschaften, wie etwa die Medizin und das Ingenieurswesen, und gesellschaftliche Dienste, insbesondere Militär, Polizei, und Feuerwehr-, Rettungs- und Notfalldienste.
Our (Mechanical) Wave-Field Recorders offer the same general constructional features, functions, and variants like our sound-field recorder, but capture also mechanical waves with other frequ- encies than audible acoustic waves/sound. To their fields of applic- ation belong for example the arts, the sciences, like e.g. the medic- ines and the engineering, and social services, especially military, police, as well as fire, rescue, and emergency services.

 

   
Light-Field Projector™ 5.June.2012 and 01.01.2013
Lichtfeldprojektoren basieren auf Lichtfeldemitter und nutzen optische Komponenten zur gezielten Verteilung der Strahlen.
Light-field projectors are based on light-field emitter and utilize optical components for the targeted distribution of rays.

 

   
Ray-Field Projector™ 5.June.2012 and 01.01.2013
Unsere Strahlenfeldprojektoren bieten die gleichen generellen Konstruk- tionsmerkmale, Funktionen und Varianten wie unsere Lichtfeldprojektoren, aber sie können auch elekromagnetische Wellen mit anderen Frequenzen als sichtbares Licht erzeugen. Zu ihren Anwendungsfeldern zählen zum Beispiel die Künste, die Wissenschaften, die Medi- zin und das Ingenieurswesen. Spezielle Anwendungen sind Bauteile von Maschinen wie Vehikel und Roboter, Computer, Konsumentenelektronikgeräte, und die 2D- und 3D-Infrarot-/Wärmebildkameras.
Our Ray-Field Projectors offer the same general constructional features, functions, and variants like our light-field projectors, but they can also produce electromagnetic waves with other frequencies than visible light. To their fields of application belong for example the arts, the sciences, the medicines, and the engineering. Specific applications are components of machines, like vehicles and robots, computer, consumer electronics, and the 2D und 3D infrared/thermographic/thermal imaging cameras.

 

   
Sound-Field Speaker™ 6.June.2012 and 01.01.2013
Unsere Schallfeldlautsprecher bieten die gleichen generellen Konstruk- tionsmerkmale, Funktionen und Varianten wie unsere Lichtfeldprojektoren und Strahlenfeldprojektoren, aber erzeugen hörbare akustische Wellen. Spezielle Anwendungen sind Bauteile von Maschinen wie Vehikel und Roboter, Computer, Konsumentenelektronikgeräte, und die 2D- und 3D-Mikrofone.
Our Sound-Field Speakers offer the same general constructional features, functions, and variants like our light-field projectors and ray-field projectors, but produce audible acoustic waves. Specific applications are components of machines, like vehicles and robots, computers, consumer electronics, and the 2D und 3D microphones.

 

   
Wave-Field Speaker™ 6.June.2012
Unsere (mechanischen) Wellenfeldlautsprecher bieten die gleichen generellen Konstruktionsmerkmale, Funktionen und Varianten wie unsere Schallfeldlautsprecher, aber erzeugen auch mechanische Wellen mit anderen Frequenzen als auditiv wahrnehmbare akustische Wellen/Schall. Spezielle Anwendungen sind Bauteile von Maschinen wie Vehikel und Roboter, Computer, Konsumentenelektronikgeräte und die 2D- und 3D-Mikrofone.
Our (Mechanical) Wave-Field Speakers offer the same general constructional features, functions, and variants like our sound-field speakers, but produce also mechanical waves with other frequencies than audible acoustic waves/sound. Specific applications are components of machines, like vehicles and robots, computer, consumer electronics, and the 2D und 3D microphones.

 

   
Holomer 2004
Die Holomer (HOLOgraphische MEdizinische kRankenakte) kann als Holomer (HOLOgraphische Medizinische Elektronische Repräsentation) 3.0 angesehen werden, welche selbstverständlich mit der Holomer 2.0 kompatibel ist, und neben einem Hologram mit allen möglichen Informationen ihrer Besitzerin/ihres Besitzers außerdem sämtliche wichtigen Informationen die nicht visualisiert werden können enthält. Wird die Holomer mit dem Retinaprojektor/Retinabildschirm oder dem Retinaskop und dem Bod•E™ Modulsystem kombiniert, so erhält man unseren Holodoc 1.0.
The Holomer (HOLOgraphic MEdical Record) can be seen as the Holomer (HOLOgraphic Medical Electronic Representation) 3.0, which for sure is compatible with the Holomer 2.0, and contains besides a hologram with all possible informations of its owner additionally all in- formations that can't be visualised. If the Holomer is combined with the Retina Projector/Retina Screen or the Retinascope, and also the Bod•E™ module system, then our Holodoc 1.0 results.

 

   
Holofood™ 8.November.2010
Die Holofood (Holographische Nahrung) enthält neben Hologrammen mit allen möglichen Informationen über die verschiedensten Nah- rungsmittel außerdem sämtliche wichtigen Informationen die nicht visualisiert werden können. Kombiniert man die Holofood mit dem Retinaprojektor/Retinabildschirm oder der Retinaskop, ergibt dies un- seren Holochef/Holocook 1.0.
The Holofood (HOLOgraphic FOOD) contains besides holograms with all possible informations about the most different food furthermore all informations that can't be visualised. If the Holofood is combined with the Retina Projector/Retina Screen or the Retinascope, then this results in our Holochef/Holocook 1.0.

 

   
3D Copier™ 22.August.2013
Der 3D-Kopierer ist ein Gerät, das einen 3D-Scanner und einen 3D- Drucker in einem Gehäuse integriert. Je nach Variante und Anwen- dungsfeld beherrscht das Gerät verschiedene Scan- und Reproduk- tionstechniken. Er sieht wie ein Mikrowellenofen aus und besitzt auch einen optionalen Drehteller oder mehrere Kameras, sodass ein Objekt leicht und akkurat gescant werden kann. Das zu kopierende Objekt wird einfach in das Gerät gestellt und nach dem Vorgang des Abtas- tens wieder herausgenommen. Eine andere Möglichkeit ist von einem Computer oder einem Datenspeicher ein digitales 3D-Bild oder eine Reproduktionsanweisung zu laden. Danach kann der Reproduktions- prozess gestartet werden. Da der 3D-Kopierer auch durch unsere Betriebssystemplattformen OntoLix und OntoLinux betrieben wird, werden Objekte erkannt und zusätzliche Informationen von einem anderen Computer oder aus dem Internetz geladen, sodass auch das Innere der eingescannten Objek- te richtig reproduziert werden kann.
The 3D Copier is one device that integrates a 3D scanner and a 3D printer in one casing. Depending on the variante and the field of application the device can apply different scan and reproduction technics. It looks like a microwave oven and also features an option- al rotary plate or several cameras, so that an object can be scanned easily and accurately. The Object that has to be copied is simply put into the device and taken out again after the process of scanning. Another possibility is to load a digital 3D image or a reproduction in- struction from a computer or a data storage. Subsequently the re- production process can be started. Because the 3D copier is also powered by our operating system plat- forms OntoLix and OntoLinux objects are recognized and additional informations loaded from com- puters or the internet, so that also the inwards of the scanned obj- ects can be reproduced correctly.

 

   
MealMaker™ 23.August.2013
Der Speisemacher==MealMaker integriert unseren 3D-Kopierer mit ei- nem Mikrowellenofen. Dazu werden auch Konzepte und Techniken von unserem McNano angewendet. Da der MealMaker durch unsere Betriebssystemplattformen OntoLix und OntoLinux betrieben wird, kann man einfach ein Bild einer zu kochenden Speise vor die optiona- le Kamera des Gerätes halten oder ein digitales Bild oder ein Rezept von einem Computer, einem mobilen Datenspeicher oder aus dem Internetz laden.
The MealMaker integrates the 3D Copier with a microwave oven. For this, also concepts and techniques of our McNano are applied. Be- cause the MealMaker is also powered by our operating system plat- forms OntoLix und OntoLinux an image of a meal that have to be cooked can be simply hold in front of the optional camera or loaded from a computer, a mobile data storage, or the internet.

 

   
     

 

Qixel™ 2.June.2008
Aus der Forschung und Entwicklung im OntoLab hat sich eine neue Metapher ergeben: Ubiquitous Displaying™. In Anlehnung an das Ubiquitous Computing, die allseitige Verfügbarkeit und Anwendung von Rechnern, beschreibt das Ubiquitous Displaying™ die allgegen- wärtige Verfügbarkeit und Benutzung von bildgebenden Geräten, z. B. Bildschirmen oder Projektoren.
As a result of the research and development in the OntoLab a new metaphor has arised: Ubiquitous Displaying™. In dependence of the Ubiquitous Computing, the omnipresent availability and utilization of computers, the Ubiquitous Displaying™ describes the ubiquitous availability and application of image giving devices, e.g. displays, or projectors.

 

   
eLSG™/eVSG•E™ 6.May.2009
Die eVSG Lösung ist eine Technologie, die aus (Verbund)Sicherheits- glas mit E-Papier oder einer anderen geeigneten Technologie von transparentem Bildschirm, z. B. auf Basis flexibler LED-Bildschirm- oder LCD-Technologien, als eine Schicht oder Zwischenschicht be- steht, wobei der Vorteil des E-Papiers darin liegt, dass es auch ohne Stromverbrauch das letzte Bild weiterhin anzeigen kann. Zudem sind die Integrationen von durchsichtigen Solarzellen, unserer Technolo- gien Holonicle und unseren aktiven Schirmen und Anzeigen==Active Screens and Displays möglich.
Die neueren Versionen unseres e(Verbund)SicherheitsGlas sind voll- kommen personalisierbar oder/und mit den Technologien Touch/Be- rührung, Multitouch/mehrere gleichzeitig ausgeführte Berührungen, SenseTouch™, AITouch™, Kineticle™ und Hapticle™ kombinierbar. Unser eVSG kann auch mit allen anderen geeigneten multimedialen Technologien genutzt werden, wie z. B. die Augmented Reality (AR) und das auf der AR aufbauende Sp@ce-Konzept.
Zudem besteht die Möglichkeit durch entsprechende Oberflächen- qualitäten des Glases für eine komfortablere und optimalere Nutzung zu sorgen, wie zum Beispiel der Vermeidung von Fingerabdrücken oder von Schmutz um Hygieneanforderungen zu erfüllen.
Da mit eVSG sowohl statische als auch bewegte Bilder dargestellt werden können, ist es auch als ein neues Medium für die Werbung bestens geeignet. Die Lösung kann auch für alle Arten von Konsu- mentenelektronik genutzt werden, insbesondere Fernseher und mo- bile Endgeräte. Seine Anwendung im Zusammenhang mit der Innen- und Außenarchitektur von Gebäuden, insbesondere mit Privathäu- sern, stellt unsere eVSG@Home Lösung dar. Wenn es sich sogar um eine ganze Wand oder eine andere räumliche Eingrenzung handelt, so sprechen wir von der eVSG-Wall und dem eVSG-Zaun.
Eine weitere interessante Lösungen ist die Kombination des eVSGs mit kabellosen Energieübertragungssystemen, wie zum Beispiel der Kabellosen Resonanten Energieverbindungstechnologie (KRE) und den Systemen, die auf der Technologie der gestrahlten Energieübertra- gung (GE)==Beamed Energy Link (BEL) basieren.
The eVSG/eLSG solution is a technology, that consists of (laminated) security/safety glass with e-paper or another appropriated tech- nology of transparent display, e.g. on the basis of flexible LED dis- play or LCD technologies, as one layer or interlayer, with the advant- age of the e-paper that it can keep displaying the last image with- out power consumption. Since it is possible with eVSG to display both static images and videos, it also can be used ideally as a new medium of promotion. Furthermore, the integrations with transparent solar cells, our technology Holonicle™, and our active screens and displays are possible.
The newer versions of our (elaminated) safety/security glass are perfectly personalizable, or/and combinable with the technologies touch, multi-touch, SenseTouch™, AITouch™, Kineticle™, and Hapticle™. Our eLSG can be used as well with all other kinds of suited multimedia technologies, like e.g. the Augmented Reality (AR) and the Sp@ce concept built on top of the AR.
Moreover, the possibility exists to provide for a more comfortable and optimized usage by adequate qualities of the glass surface, like for example the prevention of fingerprints or of dirt to fullfil hygiene re- quirements.
Because static as well as animated pictures can be displayed with eLSG, it is also ideally suited as a new medium for the advertise- ment. The solution can also used for all kinds of consumer electron- ics, specifically televisions and mobile devices. Its application in connection with the interior and exterior architecture of buildings, specifically of private houses, is represented by our eLSG@Home solution. If the matter is even about a whole wall or another spatial perimeter, then we speak about the eLSG Wall and the eLSG Fence.
A further interesting solution is the combination of eLSG with wireless energy transmission systems, like for example the Wireless Resonant Energy/Power Link (WREL/WRPL) technologies, and the systems based on the technology of the Beamed Energy Link (BEL).

 

   
LaserPaper™ (lpaper™) 4.June.2012
Das LaserPapier (lPapier) basiert auf der Kombination der laserbasier- ten Bildanzeigetechnologien mit dem e-Papier, dem LED-TV oder dem Plasmafernseher. Die Lasereinheit projeziert mit einem oder mehreren unsichtbaren Strahlen ein Bild auf den Schirm/das 'Papier' und kon- trolliert hierdurch die sich darauf beziehungsweise darin befindlichen das Bild anzeigenden Elemente entweder durch die Veränderung ihrer Ausrichtung, Position oder physikalischen Eigenschaften oder durch den Einsatz der gestrahlten Strom Anzeigetechnologie für die Versor- gung der lichtemittierenden elektrolumineszierenden, fluoreszierenden sowie andere geeignete Eigenschaften besitzenden Elemente mit ge- strahlter Energie. Somit werden keine Elektroden für die Herstellung einer Spannungsdifferenz und der hierdurch gleichzeitig realisierten Addressierung der einzelnen Bildpunkte benötigt, sodass auch keine Notwendigkeit für eine Stromversorgung besteht. Auf diese Weise wird durch unsere Lösung die Herstellung von zum Beispiel extrem großen Bildschirmen, smarten Fenstern sowie elektrischen Tapeten ermöglicht. Außerdem ermöglicht unsere Lösung mit einer sehr hohen Auflösung den Mehrpersonen-3D-Bidschirm durch die Wellenfeldsyn- these. Natürlicherweise können auch unsere Technologien Laser Image Display 2.0 sowie eVSG als auch Multimediatechnologien aller Art angewendet werden, wie etwa die Augemented Reality (AR) und das auf AR aufbauende Sp@ce-Konzept.
The LaserPaper (lpaper) is based on the combination of the techno- logies of the laser-based imaging technologies with the e-paper, the LED TV, or the Plasma TV. The laser unit projects with one or more invisible rays an image on the screen/'paper' and controls in this way the image displaying elements that are on top respectively inside of it by either changing their alignment, position or physical properties, or by applying the Beamed Energy Display technology for the support of the light-emitting electroluminescent, fluorescent, or other suitable properties having elements with electric power. Therefore, no electrodes are needed for the creation of a voltage difference and the hereby simultaneously realized addressing of the single pixels, so that there is no need for a power supply as well. In this way the production of for example extremely large displays, smart windows, and electric wallpapers is made possible by our solution. Furthermore, with a very high resolution our solution makes the mul- ti-person 3D TV possible by the synthesis of wave-field. Naturally, our technologies of the Laser Image Display 2.0 as well as the eVSG solution, and also multimedia technologies of all kinds can be applied, like for instance the Augemented Reality (AR) and the Sp@ce concept built on top of AR.

 

   
LaserGlass™ (lglass™) 4.June.2012
Das LaserGlas (lGlas) funktioniert wie das LaserPapier und bietet bis auf die Flexibilität und das geringe Gewicht die gleichen Vorteile, da es eine Projektionsfläche hat, die entweder aus Glas in dem die bild- darstellenden Elemente auf der Oberfläche aufgetragen oder direkt in das Silicat eingeschmolzen sind oder als ein laminiertes Glas mit dem LaserPapier als Zwischenschicht hergestellt ist. Die Integration mit unserer eVSG Lösung als auch unsere Laser Image Display 2.0 Tech- nologie ist genauso möglich wie Multimediatechnologien aller Art es sind und mit einer sehr hohen Auflösung ermöglicht unsere Lösung auch den Mehrpersonen-3D-Bildschirm durch die Wellenfeldsynthese.
The LaserGlass (lglass) functions like the LaserPaper and offers the same advantages with the exception of the flexibility and the low weight, because it has a projection surface that is either made out of glass, that has the image displaying elements topically applied or molten directly into the silicate, or as a laminated glass with the LaserPaper as interlayer. The integration with our eVSG solution as well as our Laser Image Display 2.0 technology is possible in the same way, as are multimedia technologies of all kind, and with a very high resolution our solution also makes the multi-person 3D TV possible by the synthesis of wave-field.

 

   
OruKami™ 2001
Bei dem Konzept OruKami handelt es sich um flexible plastik-elek- tronik-basierte, Origami-basierte/faltbare, beschreibare, 2D- und 3D- Monitore, Landkarten und Pläne sowie Haftnotizen.
The concept OruKami describes flexible plastic electronics-based, Origami-based/foldable, writeable, 2D and 3D displays, maps, and plans.

 

   
     
@Book™ 1.0 2001
Die @Book Serie vereint die Konzepte von dem elektronischen Buch (eBuch/eBook) und unseren Serien der Pad-Computer und der Com- puterbücher==computer-Books (cBooks). Ein @Book ist ein mono- chromes oder farbiges und festes oder flexibles eBuch mit einem ein- zigen Blatt beziehungsweise (Ausgabe)Schirm, das/der ein E-Papier, ein anderer flexibler Bildschirm, eine mehrschichtige/geschichtete An- zeige, die sogar zum Beispiel aus einem E-Papier und einer Anzeige besteht, die auf Organische LichtEmittierende Dioden==Organic Light-Emitting Diodes (OLEDs) basiert, oder eine/ein aktive Anzeige und aktiver Schirm==Active Display and Screen sein kann.
The @Book series joins the concepts of the electronic book (ebook), and our pad computers and computer-Books (cBooks) series. An @Book is a monochrome or coloured, and solid or flexible ebook with a single sheet respectively screen, that can be an e-paper, another flexible display, a multi-layer/stacked display, which even consists of an display based on an e-paper and an Organic Light-Emitting Diode (OLED) for example, or an Active Display and Screen.

 

   
@Book™ 2.0 2007
Das @Book 2.0 ist eine Erweiterung des @Book 1.0 mit der Möglichkeit durch eine mobile Internet-Verbindung Daten auszutauschen.
The @Book 2.0 is an extension of the @Book 1.0 with the facility to exchange data by a mobile internet connection.

 

   
@Book™ 3.0 2008
Das @Book 3.0 ist eine Erweiterung unserer @Book-Serie mit Single- oder Multitouch-Fähigkeit.
The @Book 3.0 is an extension of our series of @Books with single- or multi-touch functionality.

 

   
@Book™ 4.0 14.March.2011
Das @Book 4.0 ist eine Erweiterung unserer @Book-Serie mit unserem haptischen Papier.
The @Book 4.0 is an extension of our range of @Book with our haptic paper.

 

   
@Book™ 5.0 4.September.2011
Das @Book 5.0 ist eine Erweiterung unserer @Book-Serie mit der Technologie der Retinabildschirme/Retinaprojektoren, inklusive der Retinaskope.
The @Book 5.0 is an extension of our range of @Books with the tech- nology of the Retina Projectors/Retina Screens, inclusive the Retina- scopes.

 

   
@Book™ 6.0 12.September.2011
Das @Book 6.0 unterscheidet sich von der @Book 1.x Serie durch die Trennung von Benutzerschnittstelle und Energieversorgung. In Ge- bäuden wird es durch ein kabelloses Energiesystem versorgt, wie un- serem WREL/WRPL@Home, so dass kein Akkumulator benötigt wird. Die gleiche Lösung ist auch außerhalb von Gebäuden oder in Fahr- und Flugzeugen aller Arten realisierbar indem andere Lösungen ge- nutzt werden, die zum Beispiel auf unsere kabellose resonante Ener- gieübertragungstechnologie basieren. Zusätzlich können Akkumula- toren mit unterschiedlichen Kapazitäten leicht angeschlossen wer- den. Das Einstiegsset umfasst ein Gerät und eine kabellose Energie- station. Drei Geräte können zum Beispiel mit einer kabellosen Ener- giestation versorgt werden indem ein Gerät im aktiven und zwei im schlafenden Modus sich befinden. Energiestationen mit höherer Leis- tung sind auch erhältlich.
The @Book 6.0 differs from the @Book 1.x series by seperating the user interface and the power supply. Indoor it is powered by a wire- less power system, like our WREL/WRPL@Home, so that no accumul- ator is needed. The same can be realized outside of buildings or in vehicles of all kinds by using other solutions based on for example our Wireless Resonant Power Link (WRPL) technology. Additionally, batteries with different capacities can be attached easily. The start- er kit is comprising one device and one wireless power station. Three devices can be powered by one standard wireless power supply, for example, by managing one device in the active and two in the sleep- ing mode. Power stations with higher performance are available as well.

 

   
@Book™ 7.0 11.August.2012
Das @Book 7.0 integriert die originalen @Bücher/@Books mit der Parionik und öffnet hierdurch Türen zu der ganz neuen Welt der synthetischen Realität 2.0. Mit dem @Book 7.0 erhalten BenutzerIn- nen ein multimediales Buch mit und in dem programmierbare Energie und programmierbare Materie erzeugt und gesteuert werden können.
The @Book 7.0 integrates the original @Books with the parionics and in this way opens doors to the whole new world of the synthetic reality 2.0. With the @Book 7.0 users get a multimedia book with and in which programmable energy and programmable matter can be created and controlled.

 

   
@Book™ 8.0 200x
Das @Book 8.0 bezeichnet die Ultra-Versionen der originalen @Bücher/@Books.
The @Book 8.0 refers to the Ultra versions of the original @Books.

 

   
     
cBook™ 1.0 2001
Das cBook ist ein flexibles und farbiges elektronisches Buch (eBuch/ eBook). Die speziellen elektronischen Versionen des Ringbuchs, Ord- ners und Klemmhefters besitzen die Mechanismen unseres Smarten Digitalen Assistenten, die das Herausnehmen und Hinzufügen von einzelnen Blättern ermöglichen, die E-Papier und andere flexible Bildschirme sowie weitere multimediale aber auch analoge und nicht elektrische Erweiterungen sein können.
The cBook is a flexible and coloured electronic book (eBook). The special electronic versions of the ring book and spring book feature the mechanisms of our Smart Digital Assistant, that enable the tak- ing out and adding of single sheets, that can be e-paper and other flexible displays, as well as further multimedia but also analog and non-electric add-ons.

 

   
cBook™ 2.0 2007
Das cBook 2.0 ist eine Erweiterung des cBook 1.0 mit der Möglichkeit durch eine mobile Internet-Verbindung Daten auszutauschen.
The cBook 2.0 is an extension of the cBook 1.0 with the facility to exchange data by a mobile internet connection.

 

   
cBook™ 3.0 2008
Das cBook 3.0 ist eine Erweiterung unserer cBook-Serie mit Single- oder Multitouch-Fähigkeit.
The cBook 3.0 is an extension of our series of cBooks with single- or multi-touch functionality.

 

   
cBook™ 4.0 14.March.2011
Das cBook 4.0 ist eine Erweiterung unserer cBook-Serie mit unserem haptischen Papier.
The cBook 4.0 is an extension of our range of cBooks with our haptic paper.

 

   
cBook™ 5.0 4.September.2011
Das cBook 5.0 ist eine Erweiterung unserer cBook-Serie mit der Technologie der Retinabildschirme/Retinaprojektoren, inklusive der Retinaskope.
The cBook 5.0 is an extension of our range of cBooks with the tech- nology of the Retina Projectors/Retina Screens, inclusive the Retina- scopes.

 

   
cBook™ 6.0 12.September.2011
Das cBook 6.0 unterscheidet sich von der cBook 1.x Serie durch die Trennung von Benutzerschnittstelle und Energieversorgung. In Ge- bäuden wird es durch ein kabelloses Energiesystem versorgt, wie un- serem WREL/WRPL@Home, so dass kein Akkumulator benötigt wird. Die gleiche Lösung ist auch außerhalb von Gebäuden oder in Fahr- und Flugzeugen aller Arten realisierbar indem andere Lösungen ge- nutzt werden, die zum Beispiel auf unsere kabellose resonante Ener- gieübertragungstechnologie basieren. Zusätzlich können Akkumula- toren mit unterschiedlichen Kapazitäten leicht angeschlossen wer- den. Das Einstiegsset umfasst ein Gerät und eine kabellose Energie- station. Drei Geräte können zum Beispiel mit einer kabellosen Ener- giestation versorgt werden indem ein Gerät im aktiven und zwei im schlafenden Modus sich befinden. Energiestationen mit höherer Leis- tung sind auch erhältlich.
The cBook 6.0 differs from the cBook 1.x series by seperating the user interface and the power supply. Indoor it is powered by a wire- less power system, like our WREL/WRPL@Home, so that no accumul- ator is needed. The same can be realized outside of buildings or in vehicles of all kinds by using other solutions based on for example our Wireless Resonant Power Link (WRPL) technology. Additionally, batteries with different capacities can be attached easily. The start- er kit is comprising one device and one wireless power station. Three devices can be powered by one standard wireless power supply, for example, by managing one device in the active and two in the sleep- ing mode. Power stations with higher performance are available as well.

 

   
cBook™ 7.0 11.August.2012
Das cBook 7.0 integriert die originalen Computerbücher==Computer Books (cBooks) mit der Parionik und öffnet hierdurch Türen zu der ganz neuen Welt der synthetischen Realität 2.0. Mit dem cBook 7.0 erhalten BenutzerInnen ein multimediales Buch mit und in dem programmierbare Energie und programmierbare Materie erzeugt und gesteuert werden können.
The cBook 7.0 integrates the original cBooks with the parionics and in this way opens a doors to the whole new world of the synthetic reality 2.0. With the cBook7.0 users get a multimedia book with and in which programmable energy and programmable matter can be created and controlled.

 

   
cBook™ 8.0 200x
Das cBook 8.0 bezeichnet die Ultra-Versionen der originalen @Bücher/@Books.
The cBook 8.0 refers to the Ultra versions of the original @Books.

 

   
     
gBook™ 1.0 200x
Das gBook ist eine Geräteserie, die die zwei Geräteklassen des sogenannten Netbooks und der mobilen Spielkonsole vereint.
The gBook is a device series that unites the two device classes of the netbook and the handheld gaming console.

 

   
gBook™ 2.0 200x
Das gBook 2.0 ist eine Erweiterung des gBook 1.0 mit der Möglichkeit durch eine mobile Internet-Verbindung Daten auszuauschen.
The gBook 2.0 is an extension of the gBook 1.0 with the facility to exchange data by a mobile internet connection.

 

   
gBook™ 3.0 200x
Das gBook 3.0 ist eine Erweiterung unserer gBook-Serie mit Single- oder Multitouch-Fähigkeit.
The gBook 3.0 is an extension of our series of gBooks with single- or multi-touch functionality.

 

   
gBook™ 4.0 23.February.2012
Das gBook 4.0 ist eine Erweiterung unserer gBook-Serie mit unseren haptischen Bildschirmen.
The gBook 4.0 is an extension of our range of gBooks with our haptic displays.

 

   
gBook™ 5.0 23.February.2012
Das gBook 5.0 ist eine Erweiterung unserer gBook-Serie mit unserer Retinaprojektor /Retinabildschirmtechnologie, inklusive der Retina- skope.
The gBook 5.0 is an extension of our range of gBooks with our Retina Projector/Retina Screen technology, inclusive the Retinascopes.

 

   
gBook™ 6.0 23.February.2012
Das gBook 6.0 unterscheidet sich von der gBook 1.x Serie durch die Trennung von Benutzerschnittstelle und Energieversorgung. In Ge- bäuden wird es durch ein kabelloses Energiesystem versorgt, wie un- serem WREL/WRPL@Home, so dass kein Akkumulator benötigt wird. Die gleiche Lösung ist auch außerhalb von Gebäuden oder in Fahr- und Flugzeugen aller Arten realisierbar indem andere Lösungen ge- nutzt werden, die zum Beispiel auf unsere kabellose resonante Ener- gieübertragungstechnologie basieren. Zusätzlich können Akkumula- toren mit unterschiedlichen Kapazitäten leicht angeschlossen wer- den. Das Einstiegsset umfasst ein Gerät und eine kabellose Energie- station. Drei Geräte können zum Beispiel mit einer kabellosen Ener- giestation versorgt werden indem ein Gerät im aktiven und zwei im schlafenden Modus sich befinden. Energiestationen mit höherer Leis- tung sind auch erhältlich
The gBook 6.0 differs from the gBook 1.x series by the seperation of the user interface and the power supply. Indoor it is powered by a wireless power system, like our WREL/WRPL@Home, so that no need for an accumulator is given. The same can be realized outside of buildings or in vehicles of all kinds by using other solutions based on for example our Wireless Resonant Power Link (WRPL) technology. Additionally, batteries with different capacities can be attached easily. The starter kit is comprising one device and one wireless power station. For example, three devices can be powered by one standard wireless power supply by managing one device in the act- ive and two in the sleeping mode. Power stations with higher per- formance are available as well.

 

   
gBook™ 7.0 11.August.2012
Das gBook 7.0 integriert die originalen Spielbücher==Game Books (gBooks) mit der Parionik und öffnet hierdurch Türen zu der ganz neuen Welt der synthetischen Realität 2.0. Mit dem gBook 7.0 erhal- ten BenutzerInnen ein multimediales Buch mit und in dem program- mierbare Energie und programmierbare Materie erzeugt und gesteuert werden kann.
The gBook 7.0 integrates the original gBooks with the parionics and in this way opens a doors to the whole new world of the synthetic reality 2.0. With the gBook7.0 users get a multimedia book with and in which programmable energy and programmable matter can be created and controlled.

 

   
gBook™ 8.0 200x
Das gBook 8.0 bezeichnet die Ultra-Versionen der originalen @Bücher/@Books.
The gBook 8.0 refers to the Ultra versions of the original @Books.

 

   
Smart Digital Assistant™ 199x
Der Smarte Digitale Assistent (SDA) vereint die Geräteklassen des elektronischen (persönlichen) Organizers, des Persönlichen Digitalen Assitenten (PDA), des (digitalen) Medienabspielgeräts, des Mobiltele- fons und des Smartfons sowie des elektronischen Buchs, insbeson- dere die Version unseres cBuchs. Der SDA besitzt ein Gehäuse für die Kontrolllogik und den Akkumulator als auch Mechanismen, wie ein Ringbuch, ein Ordner oder ein Klemmhefter, die das Herausnehmen und Hinzufügen von einzelnen Blättern ermöglichen, die E-Papier und andere flexible Bildschirme sowie weitere multimediale Erweiterungen, die z. B. auf vielen in diesem Unterbereich Multimedia beschriebenen Technologien basieren, aber auch alle anderen Arten von analogen und nicht elektrischen Erweiterungen sein können.
The Smart Digital Assistant (SDA) unites the device classes of the electronic (personal) organizer, the Personal Digital Assistant (PDA), the (digital) media player, the mobile/cell phone and the smartphone, as well as the electronic book, specifically the version of our cBook. The SDA features a housing for the control logic and the accumulat- or, and also mechanisms, like a ring binder or a spring binder, that make the taking out and adding of single sheets possible, which can be e-paper and other flexible displays, as well as further multimedia add-ons, like e.g. many technologies described in this subsection Multimedia, but all other kinds of analog and non-electric add-ons as well.

 

   
     
P@d™ 2.0 19.March.2008
P@d ist eine Weiterentwicklung der multimedialen Tische der zweiten Generation, deren Benutzerschnittstellen sich insbesondere dadurch unterscheiden, dass sie im Gegensatz zu multimedialen Tischen der ersten Generation als auch Tablet-Computern Multitouch-Fähigkeit besitzen. Bei dem P@d Konzept besteht eine der Benutzerschnitt- stellen nur aus der Öberfläche eines multimedialen Tisches, die si- multan zwei oder mehrere unterschiedliche Positionen und Bewegun- gen von Berührungen durch die Benutzerin beziehungsweise den Be- nutzer erkennen und verarbeiten kann. Zudem ermöglicht das Weg- lassen des Tischgestells und der -platte die einfachere Handhabung und ortsunabhängige Nutzung. Nach diesem P@d Konzept entwickel- te Geräte werden auch als Pad-Computer™ bezeichnet.
Außerdem unterscheidet sich das P@d von Tablet-Computern der ersten Generation durch die konzeptionelle, optionale Trennung von Benutzerschnittstelle und Energieversorgung. So kann es zu Hause auch durch ein kabelloses Energieübertragungssystem, wie unsere WREL/WRPL@Home Technologie, mit Strom versorgt werden, sodass kein Akkumulator benötigt wird. Das Gleiche ist auch außerhalb von Gebäuden oder in Fahr- und Flugzeugen aller Arten durch die Nut- zung andere Lösungen realisierbar, die zum Beispiel auf unsere kabel- lose resonante Energieübertragungstechnologie basieren. Das Ein- steigerset umfasst ein Gerät und eine kabellose Energiestation. Die Technologie läßt sich auch so realisieren, dass zum Beispiel drei Ge- räte gleichzeitig mit einer kabellosen Energiestation betrieben werden können indem ein Gerät sich im aktiven Modus befindet und die zwei anderen in den Schlaf- oder dem Bildschirmfoto/Screenshot-Modus versetzt werden. Natürich sind auch Energiestationen mit höherer Leistung erhältlich. Zusätzlich können Akkumulatoren mit verschiede- nen Kapazitäten leicht nach dem Sandwich-Prinzip angeschlossen und auch über die Energiestation kabellos aufgeladen werden. Die neueren Versionen unserer Hardwarearchitektur besitzen eine Tasta- tur oder/und einen Solarkollektor, die in den anfügbaren Akkumulator integriert sind, sodass eine Vervierfachung seiner Funktionalität zu einem Energiespeicher, Energiegenerator, Bildschirmschutz und Einga- begerät möglich ist. Der Akkumulator ohne oder mit einer Tastatur oder einem Solarkollektor kann auch an dem Gerätegehäuse fixiert werden und somit den aufrechten Stand des Bildschirms gewährleis- ten. Zusätzliche Eigenschäften können Drucktasten oder flache Fo- lientasten, ein Touchpad/Trackpad==Tastfeld sowie ein Schiebe- oder Faltmechanismus sein, sodass es möglich ist die Tastatur und den Solarkollektor zu vergrößern, durch eine andere Anordnung der Tasten die Ergonomie und Nutzbarkeit zu verbessern, und die Erzeu- gung von elektrischem Strom durch die Ausrichtung des Solarkollek- tors zu einer Lichtquelle zu optimieren. Eine weitere Möglichkeit ist eine stationäre Docking-Station neben der Battery-Dock==Akkumu- latorkopplung und der Keyboard-Dock==Tastaturkopplung mit Akku- mulator zu nutzen, die elektrische Energie aus dem Stromnetz zu dem Gerät liefern kann. Auch bestehen die Möglichkeiten, dass Pe- ripheriegeräte, wie ein digitaler Eingabestift, ein Ohrhöhrer mit Mikro- fon, eine Kombination von beiden oder andere Geräte, durch ein in- ternes oder externes kabelloses Energieübertragungssystem oder ein Kopplungssystem des Pads oder des Akkumulators wiederaufgeladen und mit elektrischem Strom versorgt werden können.
Indem man dem grundlegenden Qixel Konzept als auch dem allgemei- nen Konzept des Pad-Computers noch genauer folgt, kann auch die zentrale Prozessoreinheit von der anderen Benutzerschnittstelle op- tional getrennt werden.
Eine weitere Version des P@ds ist durch die Verwendung unserer Neuronales Netz basierte Systemkerne™ und Neuronales Netz basier- te CPUs gegeben.
P@d is a further development of the multimedia tables of the second generation with user interfaces differing especially in this way that they have multi-touch functionality compared with multimedia tables of the first generation as well as tablet computers. One of the main user interfaces by the P@d concept consists only of the surface of a multimedia table, which is able to simultaneously register and process two or more distinct positions and motions of input touches by the user. In addition, the underframe and top of the table simply have been omitted for the more convenient handling and the locat- ion-independent application. A device that is developed after this P@d concept is also termed Pad Computer™.
Furthermore, the P@d differs from the tablet computer by the con- ceptual, optional seperation of the user interface and the power supply. In htis way it can be powered at home by a wireless power link system, like our WREL/WRPL@Home technology, so that no ac- cumulator is needed. The same is realizeable outside of buildings or in vehicles of all kinds as well by using other solutions based on for example our Wireless Resonant Power Link (WRPL) technology. The starter kit is comprising one device and a wireless power station. The technology can also be realized in such a way that for example three devices can be powered with one standard wireless power su- pply by one device being situated in the active mode, and putting two on the sleeping or screenshot mode. Power stations with higher performance are available as well. Additionally, batteries with differ- ent capacities can be attached easily following the sandwich princ- iple, and also recharged by the cordless power stations. The newer versions of our hardware architecture feature a keyboard or/and a solar panel integrated into the attachable accumulator, so that a quadrupling of its functionality to an accumulator, a power generator, a display cover, and a keyboard is possible. The accumulator without or with a keyboard or a solar panel can be fixed at the case of the device as well and thus ensure the upright standing of the display. Additional features can be push-buttons or flat membrane keys, a touch-/trackpad, as well as a sliding or folding mechanism, so that it is possible to enlarge the keyboard and the solar panel, to improve the ergonomy and useabitlity by a another arrangement of the keys, and to optimize the generation of electric power by orienting the so- larpanel to a light source. A further possibility is to use a stationary docking station without or with keyboard besides the battery/accu- mulator dock and the keyboard dock with battery, that can supply the Pad Computer with electricity from the power grid. Also there are the possibilities that peripherial devices, like a digital pen/stylus, a headset, a combination of both, or other devices, can be recharg- ed or supported with electricity by an internal or external wireless power transmission system or a docking system of the pad or the accumulator.
By following the base giving Qixel concept as well as the general concept of the Pad Computer even more precisely, the Central Proc- essing Unit (CPU) can also be optionally seperated from the other user interface.
A further version of the P@d is given by using our Neural Net Cores™ and Neural Net™ CPUs.

 

   
P@d™ 3.0
Das P@d 3.0 ist das P@d 2.0 mit einer stereoskopischen Kamera auf der Rückseite.
The P@d 3.0 is the P@d 2.0 with a stereoscopic camera on the backside.

 

   
P@d™ 4.0 28.February.2011
Das P@d 4.0 erweitert die originalen Pad Computer P@d 2.0 und P@d 3.0 mit der MobileKinetic-Technologie.
The P@d 4.0 extents the original Pad Computers P@d 2.0 and P@d 3.0 with the MobileKinetic technology.

 

   
P@d™ 5.0 11.March.2011
Das P@d 5.0 erweitert die originalen Pad Computer mit der Techno- logie der haptischen Bildschirme. Dazu wird entweder die Version unserer haptischen Bildschirme angewendet, die die Technologien des haptischen Schirms und des haptischen Lautsprechers kombiniert, oder das haptische Papier.
The P@d 5.0 extents the original Pad Computers with the technology of the haptic displays or the haptic paper. For this, either the vers- ion of the haptic display, which combines the haptic screen and the haptic speaker, or the haptic Paper is applied.

 

   
P@d™ 6.0 4.September.2011
Das P@d 6.0 erweitert die originalen Pad Computer mit der Techno- logie der Retinabildschirme/Retinaprojektoren, inklusive der Retina- skope.
The P@d 6.0 extents the original Pad Computers with the technology of the Retina Projectors/Retina Screens, inclusive the Retinascopes.

 

   
P@d™ 7.0 11.August.2012
Das P@d 7.0 integriert die originalen Pad Computer mit der Parionik und öffnet hierdurch die Tür zu der ganz neuen Welt der syntheti- schen Realität 2.0. Mit dem P@d 7.0 erhalten BenutzerInnen ein Tablet beziehungsweise eine Unterlage==Pad mit und auf dem/der programmierbare Materie und programmierbare Energie erzeugt und gesteuert werden kann.
The P@d 7.0 integrates the original Pad Computers with parionics and in this way opens a window to the whole new world of the syn- thetic reality 2.0. With the P@d 7.0 users get a tablet respectively a pad full with and on which programmable matter and programmable energy can be created and controlled.

 

   
P@d™ 8.0 200x
Das P@d 8.0 bezeichnet die Ultra-Versionen der originalen Pad Computer.
The P@d 8.0 refers to the Ultra versions of the the original Pad Computers.

 

   
E-paper Card™ 2.June.2008
Die E-paper Card ist eine Chipkarte/SmartCard die E-Papier und Plastikgeldkarte/Geldautomatenkarte/Bankkarte/Kundenkarte vereint. Die E-Papierkarte kann auch zusammen mit unserer Geldkarte des 21sten Jahrhunderts oder/und unserer Cell Cash Card genutzt werden.
The E-paper Card is a chip card/smart card that unites e-paper with cash card/ATM card/bank card/debit card. The E-paper Card can also be used in conjunction with our 21st Century Cash Card or/and our Cell Cash Card.

 

   
eUmbrella™ and eParasol™ 12.June.2012
Der eSchirm==eUmbrella und eParasol sind ein Regenschirm und ein Sonnenschirm mit einem zwei- oder mehrfarbigem e-Papier in der Plane. Der Vorteil unserer Lösung im Vergleich zu anderen flexiblen Bildschirmtechnologien ist, wie z. B. LED und OLED, dass es keinen elektrischen Strom benötigt um Licht zu reflektieren und hierdurch das letzte Bild anzuzeigen.
The eUmbrella and eParasol™ are a rainshade and a sunshade/parasol with monochrome or coloured e-paper in the screen. The advantage of our solution is that in comparison with other flexible display technologies, like e.g. LED and OLED, it needs no further electric power for reflecting light and in this way showing the last image.

 

   
Multimusic Paper ™ 12.June.2012
Das Multimusikpapier ist ein multimediales Musikinstrument, das aus zwei- oder mehrfarbigem e-Papier hergestellt wird, berührungssensitiver Eigenschaft besitzt und durch die Veränderung seiner Form und Bilder in unterschiedliche Musikinstrumente umgewandelt werden kann. Der Vorteil unserer Lösung im Vergleich zu anderen flexiblen Bildschirmtechnologien ist, wie z. B. LED und OLED, dass es keinen elektrischen Strom benötigt um Licht zu reflektieren und das letzte Bild eines Instruments anzuzeigen.
The Multimusic Paper is a multimedia music instrument made out of monochrome or coloured e-paper with touch feature that can be converted into different music instruments by changing its form and image. The advantage of our solution is that in comparison with other flexible display technologies, like e.g. LED and OLED, it needs no further electric power for showing the last image of an instrument.

 

   
Emoticon Light™ 2003
Emoticons sind wohlbekannte Zeichen, die zum Ausdrücken von Ge- fühlen bei der Kommunikation per elektronischer Post oder auf Web- Seiten Anwendung finden. Im letzteren Fall werden sie sogar animiert dargestellt. Durch die Integration von neuster LED-Technologie in den Front- und Rückscheinwerfern konnten wir das Konzept für den Einsatz in Fahrzeugen aller Art anpassen. Dazu benutzen wir unsere Scheinwerfertechnologie mit seinen einzeln aktivierbaren LichtEmit- tierenden Dioden (LEDn) und LASER-Dioden. Selbstverständlich kann man auch beliebige Muster mit unterschiedlichen räumlichen und auch zeitlichen Ausprägungen (z. B. blinkend) darstellen, sodass sich weitere Anwendungsmöglichkeiten ergeben.
Emoticons are well know symbols, that are used to express emotions in the communication by e-mail or on webpages. In the latter case they are even presented as animation. By the integration of the newest LED-based technology in the head- and rearlights of vehicles we were able to adapt this concept for the application in the auto- motive sector. For this purpose, we utilize our light technology with its separately activated Light-Emitting Diodes (LEDs) and LASER diodes. Self-evidently, arbitrary patterns with different spacial and also temporal manifestations (e.g. blinking) can be presented as well, so that further possible applications arise.

 

   
Holonicle™::MetroSmart™ 30.July.2008
Holonicle::MetroSmart bietet Barcode-Lesegeräte mit angewandter Laser- und Holographie-Technologie.
Holonicle::MetroSmart provides barcode-readers with applied laser- and holography-technology.

 

   
     

 

Ubiquitous Sensing™ 2003
Der Einsatz von Sensornetzwerken ergibt vollkommen neue Anwendungen.
The usage of sensor networks result in totally new applications.

 

   
Surround Sensor System™ (S³™) 2003
Das Surround-SensorSystem (S³) nutzt mehrere Sensorgeräte, die in einer Umgebung verteilt sind, und unter anderem unsere Kineticle-Technologien. Selbstverständlich ist unser Surround-SensorSystem (S³) selbstjustierend und kann auch Daten und Energie durch ein kabelloses Transfersystem erhalten. Das S³ wird als Erweiterung für Geräte genutzt, wie z. B. unsere erweiterbare Box (XTbox), Bildan- zeigen 2.0, Pad-Computer und Ontoskope, sowie in Umgebungen, wie etwa unsere Sp@ce-Technologie und unsere Persönliche Automati- sche Virtuelle Umgebung (PAVE).
The Surround Sensor System (S³) uses several sensor devices, that are distributed around a space, and our Kineticle technologies among others. For sure, our Surround Sensor System (S³) is self-calibrating and can get data and power by an wireless transfer system as well. The S³ is used as an extension for devices, like e.g. our eXTensible box (XTbox), Image Displays 2.0, Pad Computer, and Ontoscopes, and in environments, such as our Sp@ce technology and our Per- sonal Automatic Virtual Environment (PAVE).

 

   
SenseTouch™ 2006
Intelligente Assistenzsysteme zur Unterstützung eines breiten Spektrums von Berufen, wie zum Beipsiel Medizinern, Wartungsfach- kräften oder Gastronomen.
Intelligente assistance systems for the support of a wide spectrum of professions, like e.g. medics, maintenance specialists, or caterers.

 

   
Stethoscope 200x
Das multimediale Stethoskop besitzt eine nahtlose Integration mit unserem Hightech-Betriebssystem (HOS) OntoLinux. Zwei weitere besondere Eigenschaften sind ein kleiner integrierter Bildschirm, der das Betrachten von Tönen auch ohne einen stationären Computer oder eines mobilen Endgerätes ermöglicht, und die speziellen Soft- ware-Algorithmen die störende Geräusche herausfiltern.
The multimedia stethoscope has a seamless integration with our Hightech Operating System (HOS) OntoLinux. Two further special features are a small integrated display, that makes the visualization of tones even without the need of a stationary computer or a mobile terminal possible, and the special software algorithms that filter out disturbing noise.

 

   
     

 

AITouch™ 2006
Haptik-, Gestik- und Künstliche Intelligenz-basierte Assistenz- systeme mit einer breiten Palette an Einsatzmöglichkeiten.
Haptic-, gestures- and artificial intelligence-based assistance systems with a broad field of applications.

 

   

 

TouchWave™ 7.November.2012
TouchWave==Berührungswelle ist ein Konzept für Benutzerschnitt- stellen von Objekten, das die bekannten berührungssensitiven Tech- nologien mit den Wellenfeldtechnologien beziehungsweise unserem Wellenfeldrechnen realisiert.
TouchWave is a concept for user interfaces of objects, that realizes the known touch sensitive technologies by the wave-field techno- logies respectively our Wave-Field Computing.

 

   

 

WaveTouch™ 2012
WaveTouch==Wellenberührung ist ein Konzept für Benutzerschnitt- stellen von Objekten, das die bekannten haptischen Technologien mit den Wellenfeldtechnologien realisiert.
WaveTouch is a concept for user interfaces of objects, that realizes the known haptic technologies by the wave-field technologies.

 

   

 

Multigrid Touch™ 5.November.2012
Berührungssensitive Benutzerschnittstellen können unter Anwendung verschiedener Technologien konsturiert werden, die auf kapazitiven, resistiven, elektromagnetischen, akustischen oder anderen physikalischen Prinzipien basieren. Eine besondere Variante nutzt eine Technologie, die auf einer Schicht mit Infrarotsendern und -empfängern basiert und die die x- und y-Koordinaten von Fingerberührungen bestimmen kann, aber nur in solch einer Weise, dass es in einigen Situation die wirklichen Koordinaten erraten muss. Wenn zum Beispiel ein Finger die lin- ke obere Ecke und ein weiterer Finger die untere rechte Ecke solch einer Benutzerschnittstelle berührt, dann erkennt dieses System nur die 4 Koordinaten, das heißt 2 x-Koordinaten und 2 y-Koordinaten, die als 2 unterschiedliche xy-Kombinationen von der Kontrolleinheit interpretiert werden können, denn die andere Möglichkeit wäre, dass der eine Finger in der unteren linken Ecke positioniert ist und der andere Finger in der oberen rechten Ecke. Dieses Abschätzen dieser Technologie führt zu Fehlfunktionen auf der Anwendungsseite, insbesondere wenn virtuelle Tastaturen oder Musikinstrumenttasten genutzt werden. Je mehr Finger benutzt werden, um so mehr wächst das Problem an. Wir haben das Problem gelöst indem wir mindestens eine zweite Schicht mit einem eigenen Raster nehmen, das nicht beide x- und y-Koordinaten lieferen muss und das über eine Oberfläche wie einem berührungssensitven Bildschirm mit einem anderen Winkel (z. B. 45°) als die erste Schicht (z. B. 0°). Eine weiter Version kann die Raster in so einer Weise ausrichten, sodass ihre Kreuzungspunkte nicht übereinander liegen, sodass zusätlzlliche Präzision über die Positionen geliefert werden und mehr als 2 Finger in einer genaueren Weise genutzt werden können. Eventuell müssen beide Schichten unterschiedliche Frequenzen elektromagnetischer Strahlung nutzen. Selbstverständlich funktioniert unsere Lösung auch in mehr als 2 Dimensionen, kann in einer Schicht integriert werden indem verschiedene Frequenzen oder und Winkel/Ausrichtungen verwendet werden [added on 6th Nov 2012], mit jeder berührungssensitiven Technologie verwendet werden und deshalb nicht auf den Einsatz von Infrarotstrahlung reduziert sowie mit allen anderen Lösungen von uns kombiniert werden.
Touch sensitive user interfaces can be constructed by using different sensor and controller technologies based on capacitive, resistive, electromagnetic, acoustic, or other physical principles. One specific variant uses a technology that is based on a layer with infrared transmitters and receivers, so that the x- and y-coordinates of finger touches can be determined, but only in such a way that the controller has to guess the true coordinates in some situations. For example, if one finger touches the upper left corner and a further finger touches the lower right corner of a surface, then it does only know the 4 coordinates, which means 2 x-coordinates and 2 y-coordinates that they can be interpreted as 2 different xy-combinations of finger positions by the control unit, because the other possibility would be that the one finger is positioned in the lower left corner and the other finger in the upper right corner. This guessing by this technology leads to misfunctions on the application side, especially when using virtual/on-screen keyboards or music instrument keys. As more fingers are used, as much the problem rises. We have solved the problem by taking at least a second layer with an own grid, which can deliver the single or both x- and y-coordinates and is placed over a surface like a touchscreen with a differrent angle of its grid to the device frame (e.g. 45°) then the grid of the first layer (e.g. 0°). A further version can arrange the grids in such a way, so that their intersection points do not lay above each other, so that additional precision about the positions are delivered and more than 2 fingers can be used in a more precise way. Eventually, both layers have to use different frequencies of electromagnetic rays or other waves. For sure, our solution works in more then 2 dimensions as well, can be integrated in one layer by using different frequencies and angles [added on 6th Nov 2012], applied with any touch technology and in this way not reduced on the use of infra-red light, as wells as combined with all other solutions of us.

 

   
     
Hapticle::Fabrics 16.January.2013
Hapticle::Stoffe/Gewebe können genutzt werden um haptische/fühl- bare Textilien für z. B. Sitzbezüge, Möbel, Innenverkleidungen von Gebäuden, Vehikeln und intelligente Kleidung zu weben.
Hapticle::Fabrics can be used for weaving of haptic/tactile textiles for e.g. seat covers, furnitures, interior panellings of buildings, vehicles, and intelligent raiment/wear.

 

   
Hapticle::Screen 199x
Haptische Schirme ermöglichen das entfernte Fühlen von Materiali- en wie Textilien, Haut- und Lederarten, aber auch Möbeln, Teppi- chen, Kunstwerken, Oberflächen und ihre Eigenschaften sowie Quali- täten wie zum Beispiel Lackierungen von Fahrzeugen, sogar den Sand an einem Strand und den Schnee auf einem Berg und unzählig vielen weiteren Objekten indem diese speziellen Schirme angefasst werden. Die Technologie kann mit unserer SenseTouch-Lösung und der haptischen Lautsprechertechnologie kombiniert werden. Sie sollte aber nicht mit unseren intelligenten Teppichen verwechselt werden.
Haptic screens enable the distant feeling of materials like textiles, types of skin and leather, as well as furnitures, carpets, works of art, surfaces and their characteristics as well as qualities of e.g. paintjobs of a car, even the sand on a beach and the snow on a mountain, and innumerable many other objects by touching these special screens. The technology can be combined with our Sense- Touch solution and the haptic speaker technology. But it shouldn't be confound with our icarpets.

 

   
Hapticle::Paper 2008
Haptisches Papier ist ein flexibler haptischer Schirm auf Basis des E-Papiers.
Haptic paper is a flexible haptic screen on the basis of the e-paper.

 

   
Hapticle::Speaker 11.March.2011
Haptische Lautsprecher nutzen Ultraschall um bei BenutzerInnen das Gefühl des Berührens virtueller Objekte zu erzeugen. Im Gegensatz zu einem haptischen Schirm, der wirklich berührbar ist, ist diese Technologie für Objekte geeignet die sich nicht direkt materialisieren lassen, wie zum Beispiel Projektionen und Musik.
Haptic speakers use ultrasound to create for users the feeling of touching virtual objects. In contrast to a haptic screen, which is really tangible, this technology is suited for objects that can't be directly materialized, like for example projections and music.

 

   
Hapticle::Display 200x
Haptische Bildschirme vereinigen haptische Schirme oder/und hap- tische Lautsprecher mit optischen Anzeigen aller Typen. Die Techno- logie kann in beliebige Geräte, wie etwa unsere Pad Computer™ und Retinaprojektoren™, eingebaut werden. Dabei zeigte die Forschung in diesem Bereich, dass Testpersonen um ein Fünftel Eingabefehler reduzieren und Eingabegeschwindigkeit erhöhen sowie um zwei Fünf- tel die kognitive Belastung senken konnten.
Haptic displays incorporate haptic screens or/and haptic speakers with visual displays of all types. The technology can be built into any devices, like for example our Pad Computers™ and Retina Pro- jectors™. Besides this, research in this field could show that test persons have reduced input errors and increased input speed both one fifth, and lowered their cognitive load two fifths.

 

   
Haptic-Field™ 26.November.2012
Haptikfeld ist eine haptische Benutzerschnittsellentechnologie, die unsere Wellenfeldschirme, -resonatoren und -lautsprecher sowie unsere Wellenfeldaktuatoren nutzt um in Echtzeit physikalische Felder zu synthetisieren. Zu ihren Anwendungsfeldern zählen unter anderem die Künste, die Wissenschaften, wie etwa die Medizin und das Ingenieurswesen, und die gesellschaftlichen Dienste, insbeson- dere das Militär und die Polizei sowie die Feuerwehr-, Rettungs- und Notfall- dienste. Spezielle Anwendungen sind Bauteile von Maschinen wie Vehikel und Roboter, Computer, und Konsumentenelektronikgerä- te, insbesondere im 3D-Bereich, um nur einige wenige Beispiele zu nennen.
Haptic-Field is a haptic user interface technology that applies our wave-field screens, resonators, and speakers as well as our wave- field actuators for synthesizing physical fields in real-time. To its fields of application belong for example the arts, the sciences, as the medi- cines and the engineer- ing for instance, and the social services, especially the military, the police, as well as the fire, res- cue, and emergency services. Specific applications are components of mach- ines, like vehicles and robots, computer, and consumer electronics, specifically in the 3D area, to name just some few examples.

 

   
MultiHaptic™ 26.November.2012
MultiHaptic integriert verschiedene Technologien haptischer Mensch-Maschine-Schnittstellen, die auf elektrische Ladungen, elektroma- gnetische oder/und akustische Wellen sowie Haptikfelder und unse- rem Konzept der Taktilen Voxel (Toxel) basieren.
MultiHaptic integrates different technoloiges of haptic human machine interfaces based on electric charges, electormagnetic, or/and acoustic waves, as well as haptic-fields, and our concept of the Tactil Voxel (Toxel).

 

   
Lick Stick™ 7.May.2013
Der Leckstab ist eine haptische Technologie, die es einer/einem BenutzerIn ermöglicht Objekte mit der Zunge zu schmecken. Dafür nutzt der Leckstab elektromagnetische Kräfte, die die Geschmacks- zellen der Zunge entsprechend dem zu simulierenden Geschmack stimulieren. Ein Leckstab kann wie ein Schnuller, Lutscher, Eis am Stiel, Löffel oder anderweitig geformt sein. Idealerweise ist die Öberfläche nanostrukturiert, sodass er sauber und hygienisch bleibt.
The Lick Stick is a haptic technology that enables a user to smell objects with her/his tongue. For that the Lick Stick technology uses electromagnetic forces that stimulates the gustatory cells of the tongue in accordance of the taste that has to be simulated. A Lick Stick can be shaped like a soother, lolly, popsicle, spoon, or other- wise. Ideally, the surface of the Lick Stick is nano structured, so that it stays clean and hygienic.

 

   
     
MobileKinetic™ 6.July.2007
MobileKinetic ist die kinetische Benutzerschnittsellentechnologie für die Interaktion mit mobilen Geräten, wie zum Beispiel einem tragbaren Computer, zu der die sm@rte Uhr und die sm@rte Brille zählen, einem intelligenten Kleidungsstück, einem Multimediaabspielgerät, einer Mobilspielkonsole, einem Fotoapparat, einem Mobilcomputer/Laptop, einem Mobiltelefon, einem Tablet-Computer, einem P@d Computer, einem Retinaskop oder sogar Systemen für Bedienung, Information, Navigation oder/und Unterhaltung in einem Vehikel, durch die Bewe- gung von Objekten und Körpern, inklusive gegebenenfalls dem Gerät selbst und einzelner Körperteile, wie einem Finger, einem Gesicht oder einem Auge. Die Technologie kann neben einfachen Fotosensoren, einer 2D-Kamera, einer 3D-/tiefenerfassenden Kamera, Drehmoment- sensoren, Inertialsensoren, inklusive Beschleunigungssensoren, Dreh- ratensensoren und Gyroskopen, oder/und einer Kombination von In- ertialsensoren zu einer inertialen Messeinheit, wie sie auch in z. B. der Robotik für die Positionsbestimmung angewendet wird, auch eine Quelle für strukturiertes Infrarotlicht und einen optischen Sensor/De- tektor, der die Reflektionen der auf Körpern kontinuierlich ausgesen- deten Infrarotstrahlen erfasst, zur Bewegungsverfolgung von einem Geräte und seiner/seinem BenutzerIn umfassen. Das System kann sogar für die Erstellung von stereoskopischen 2D- und 3D-Bildern verwendet werden und zudem mit anderen stereoskopischen und dreidimensionalabbildenden Kameras oder/und haptischen Schirmen und haptischen Lautsprechern zusammenspielen. Wie ihr stationäres Gegenstück, ist die MobileKinetic-Technologie auch mit Sprachsteue- rung als Teil einer multimodalen multimedialen Benutzerschnittstelle kombinierbar, als auch mit einem Immobilen Roboter (Immobot), der aus einem Sensor-, Aktuator- oder/und Anzeigennetzwerk basiert und auf die interne Überwachung und Handhabung eines Geräts fo- kusiert ist, während die IMU alleine als ein Bestandteil von Positio- nierung- und Navigationssystem genutzt werden kann, wie unserem Enhanced GPS (E-GPS) von unserer MultiGPS-Lösung.
MobileKinetic is the kinetic user interface technology for the inter- action with mobile devices, like for example a wearable computer, to which belong the Sm@rtWatch and the Sm@rtEyewear, a piece of intelligent clothing/raiment, a multimedia player, a handheld /portable game console, a camera, a laptop, a mobile phone, a P@d Computer, a Retinascope, or even systems for control, information, navigation or/and entertainment in a vehicle, through the motion of objects and bodies, inclusive the device itself if applicable and single bodyparts, like a finger, a face, or an eye. Besides simple photosensors, a 2D camera, a 3D/depth sensing camera, torque sensors, inertial sens- ors, inclusive accelerometers, rate sensors, and gyroscopes, or/and a combination of inertial sensors to an Inertial Measurement Unit (IMU), as ustilized in e.g. the robotics, for the motion tracking and the determination of the position of the device and the user, the technology can also comprise a source of structured infrared light and an optical sensor/detector, which captures the reflection of the infrared rays continuously projected on bodies. The system can even be used to create stereoscopic 2D and 3D images and also interplay with other stereoscopic and 3-dimensional imaging cameras, or/and haptic screens and haptic speakers. As its stationary counterpart, the MobileKinetic technology can also combined with voice control as part of a Multimodal Multimedia User Interface (M²UI), as well as with an immobile robot (immobot) based on a sensor, actuator, or/ and display network and focused on the internal monitoring and management of a device, while the IMU alone can be used as a part of positioning and navigation systems, like our Enhanced GPS (E-GPS) of our MultiGPS solution.

 

   
Time-of-Flight 2.0 14.July.2012
Die Laufzeitmessung 2.0 wendet wie ein aktives Sonar, ein Flackern von wechselnder Frequenz an um die Pulskompression beim Empfang zu ermöglichen. Hierdurch kann die Berechnung und Weiterverabei- tung der empfangenen Signale beschleunigt werden.
The Time-of-Flight 2.0 applies like an active sonar a flickering/wav- ering of changing frequency to allow pulse compression on reception. In this way the computing and further processing of the received signals can be accelerated.

 

   
Structured Light 2.0 14.July.2012
Strukturiertes Licht 2.0 wendet wie ein aktives Sonar ein Flackern von wechselnder Frequenz an um die Pulskompression beim Empfang zu ermöglichen. Hierdurch kann die Berechnung und Weiterverabei- tung der empfangenen Signale beschleunigt werden.
Structured Light 2.0 applies like an active sonar a flickering/wavering of changing frequency to allow pulse compression on reception. In this way the computing and further processing of the received sig- nals can be accelerated.

 

   
Structured Time-of-Light-Flight 7.November.2010
Die Structured Time-of-Light-Flight==strukturierte Lichtlaufzeit(mes- sung) ist eine allgemeine Technik, die die Techniken des strukturier- ten Lichts und der Time-of-flight==Laufzeit(messung) integriert, wie sie für die Registrierung und Verfolgung von Objekten, wie etwa Kör- per, Augen und Blicke, und ihren Bewegungen als auch für die Kon- trolle von stationären und mobilen Anwendungen sowie Geräten ge- nutzt werden, wie z. B. Gestenkontrolle sowie Bildanzeigen und -pro- jektoren, Beschallungsanlagen und Wellenfeldumgebungen in 1, 2, 3, oder mehr Dimensionen. Die Überlegenheit unserer Lösung ergibt sich aus der Vereinigung der Qualitäten beider Ansätze, da jeder seine Vorteile bei der Registrierung und Verfolgung von Objekten in Abhän- gigkeit von ihren Positionen und Abstände vom Registrierungs- oder/ und Verfolgungssystem hat, die weit und nicht so weit entfernt und sehr nah sein können. Die Technik ist bereits generell mit unserem Retina Projector 1.0 beschrieben worden.
The Structured Time-of-Light-Flight is a general technique that integrates the techniques of the structured light and the time-of-flight, as they are used for the registering and tracking of objects, like e.g. bodies, eyes, and gazes, and their motions, and also for the control of stationary and mobile applications and devices, like e.g. gesture control, as well as imaging displays and projectors, sound systems, and wave-field environments in 1, 2, 3, or more dimens- ions. The superiority of our solution arises out of the unification of the qualities of both approaches, because each has its advantages for registering and tracking objects depending on their positions and their distances to the registering or/and tracking system, which can be far and not so far away, and very close. The technique is already described in general with our Retina Projector 1.0.

 

   
Structured Time-of-Light-Flight 2.0 14.July.2012
Die Structured Time-of-Light-Flight 2.0==strukturierte Lichtlaufzeit (-messung) 2.0 erweitert die Technik der strukturierten Lichtlauf- zeit(messung) 1.0 mit den Techniken der Laufzeitmessung 2.0 und des strukturierten Lichts 2.0.
The Structured Time-of-Light-Flight 2.0 extends the technique of the Structured Time-of-Light-Flight 1.0 with the techniques of the time-of-Flight 2.0 and the structured light 2.0.

 

   
Structured Time-of-Sound-Flight 13.July.2012
Die Technik der strukturierten Schalllaufzeit(messung) funktioniert wie die strukturierte Lichtlaufzeit(messung), aber nutzt strukturierte Schallpulsmuster, die die Technik, die auf einer Quelle von struktu- riertem Schall basiert, mit der Schalllaufzeit(messung)/aktives Sonar und Sodar kombiniert.
The Structured Time-Of-Sound-Flight technique works like the Structured Time-Of-Light-Flight, but uses structured sound pulse patterns combining the technique based on a source of structured sound and the acoustical time-of-flight technique/active sonar and sodar.

 

   
Kinetic-Field 6.June.2012
Kinetikfeld ist eine kinetische Benutzerschnittsellentechnologie die unsere Wellenfeldkameras und -mikrofone, wie zum Beispiel eine Lichtfeldkamera, eine Strahlenfeldkamera oder ein Schallfeldmikrofon, sowie unsere Wellenfeldsensoren nutzt um in Echtzeit Standbilder, Videos und geeignete Datenstrukturen zu erstellen, die die erfassten Informationen über die physikalischen Felder beinhalten. Zu ihren An- wendungsfeldern zählen unter anderem die Künste, die Wissenschaf- ten, wie etwa die Medizin und das Ingenieurswesen, und die gesell- schaftlichen Dienste, insbesondere das Militär und die Polizei sowie die Feuerwehr-, Rettungs- und Notfalldienste. Spezielle Anwendun- gen sind Bauteile von Maschinen wie Vehikel und Roboter, Computer, und Konsumentenelektronikgeräte, insbesondere im 3D-Bereich, um nur einige wenige Beispiele zu nennen.
Kinetic-Field is a kinetic user interface technology that applies our wave-field cameras and wave-field microphones, like for example a light-field camera, a ray-field camera, or a sound-field mircrophone, as well as our wave-field sensors for making in real-time still images, videos, and suitable data structures containing the captured inform- ations about the physical fields. To its fields of application belong for example the arts, the sciences, as the medicines and the engineer- ing for instance, and the social services, especially the military, the police, as well as the fire, rescue, and emergency services. Specific applications are components of machines, like vehicles and robots, computer, and consumer electronics, specifically in the 3D area, to name just some few examples.

 

   
MultiKinetic 28.June.2012
MultiKinetic ist die Generalisierung des Konzepts hinter unserer Tech- nologie MobileKinetic, die die verschiedenen Techniken der Registrie- rung und Verfolgung von Objekten kombiniert, wie etwa Körper, Au- gen und Blicke, und ihren Bewegungen durch Systeme, die auf ein- fachen (Web)Kameras, Kinetikfelder, komplexeren Systemen mit strukturiertem Licht, Laufzeit(messung) und strukturierter Lichtlauf- zeit(messung), wie unsere Retinaprojektion, und anderen geeigneten Lösungen von Registrierungs- und Verfolgungssystemen mit ihren verschiedenen Qualitäten.
MultiKinetic is the generalization of the concept behind our MobileKi- netic technology that combines the different techniques of register- ing and tracking of objects, like e.g. bodies, eyes, and gazes, and their movements by systems, which are based on simple (web)cam- eras, kinetic-fields, structured light, time-of-flight, and structured time-of-light-flight, like our Retina projection, and other appropriated solutions of registering and tracking systems with their different qualities.

 

   
Tablet Mouse™ 4th of July 2013
Die Tabletmaus ist ein Eingabegerät, das die Konzepte der Computer- Maus und des Tablet-Computers ohne oder mit einer Frontkamera und anderen Sensoren kombiniert. Sie wird als eine steife oder flexi- ble Mausmatte realisiert, die auf berührungsempfindlicher Anzeigen- technologie basiert. Die Bedienung erfolgt praktisch genauso wie mit der alten Computer-Maus, jedoch wird keine Maus mehr benötig. Stattdessen ist die Tabletmaus auch fähig Gesten in 2D als auch Handschrift zu erkennen. Sie kann mit Eigenschaften der Kinetik- maus integriert werden.
The Tablet Mouse is an input device, which integrates the technolo- gies of the computer mouse and the tablet computer without or with a front camera and other sensors. It is realized as a stiff or flexible tablet mousepad based on touch-sensitive display technology. The usage happens virtually exactly like with the old computer mouse, however no mouse is needed anymore. Instead, the Tablet Mouse is also able to recognize gestures in 2D as well as handwriting. It can be integrated with features of the Kinetic Mouse.

 

   
Kinetic Mouse™ 4th of July 2013
Die Kinetikmaus ist ein Eingabegerät, das die Konzepte der Compu- ter-Maus oder/und des Tastfeldes==Touchpad sowie der Tabletmaus mit der kinetischen Technologie oder/und haptischen Technologie kombiniert. Sie wird als eine steife oder flexible Kinetikmausmatte realisiert, die je nach konkreter Variante auf unserer aktiven Schirm- technologie oder/und aktiven Anzeigetechnologie basiert. Eine komplexere Variante wird durch ein einfaches Aktuatorsystem aus der Robotik bewegt um die kinästhetische haptische Kraftrückmel- dung zu steigern. Die Bedienung erfolgt praktisch genauso wie mit der alten Computer-Maus, jedoch wird keine Maus mehr benötig. Stattdessen ist die Kinetikmaus auch fähig Gesten in 2D und 3D als auch Handschrift zu erkennen und ein Gefühl von Strukturen und 3D-Formen zu geben.
The Kinetic Mouse is an input device, which integrates the techno- logies of the computer mouse or/and the touchpad as well as the Tablet Mouse with the kinetic technology or/and haptic technology. It is realized as a stiff or flexible kinetic mousepad based on our Active Screen or/and Active Display technology depending on the specific variant. A more complex variant is moved by a simple actu- ator system of the fields of robotics for increasing the kinesthetic haptic force-feedback. The usage happens virtually exactly like with the old computer mouse, however no mouse is needed anymore. Instead, the Kinetic Mouse is also able to recognize gestures in 2D and 3D as well as handwriting, and give a sense of structures and 3D shapes.

 

   
PixelWave™ 7.November.2012
PixelWave vereinigt unserer Wellenfeldtechnologien und unser Wellenfeldrechenparadigma mit einer interaktiven Oberflächenrechenplattform==Surface Computing Platform, die einer oder mehreren Personen erlaubt multimodale Techniken und reale Objekte zu nutzen und gleichzeitig digitale Inhalte auszutauschen. Die PixelWave-Plattform besteht aus Software- und Hardware-Produkten, die optional multidimensionale oder/und multimodale Hardware, insbesondere visuelle, haptische und akustische Technologien, 360° Mehrnutzeranwendungsgestaltung und Betriebssystemsoftware kombiniert um eine natürliche Benutzerschnittstelle==Natural User Interface (NUI) zu schaffen. Eine weitere Version projeziert auch Wellenfelder wie elektromagnetische Bilder auf physikalische und anfassbare Objekte, die auf der Oberfläche oder neben dieser frei im Raum plaziert sind.
PixelWave unites our wave-field technologies and our wave-field computing paradigm with "an interactive surface computing platform, which allows one or more people to use multimodal techniques and real objects, and share digital content at the same time." The PixelWave platform consists of software and hardware products that optionally combine multidimensional or/and multimodal hardware, especially vision, haptic, and acoustic based technologies like (multi)touch, 360° multiuser application design, and operating system software to create a Natural User Interface (NUI). A further version of our PixelWave technology can also project wave-fields like electromagnetic images on physical and tangible objects that are laying on the surface or are placed beside it free in space.

 

   
MediWave™ 16.November.2012
Das MediWave-System nutzt unsere Wellenfeldtechnologien und unser Wellenfeldrechenparadigma in der Medizin. Eine spezielle Anwendung ist zum Beispiel ein integriertes System für die extrakorporale Stoßwellentherapie (ESWT), das auf den Techniken der MagnetResonanzTomographie (MRT) sowie der Ultraschallstrahlenfeldanalyse, -synthese und -projektion basiert und unter anderem für die Behandlung von Frakturen, insbesondere nicht heilenden Knochenbrüchen/Pseudarthrosen, der Bekämpfung von schmerzhaften Verkalkungsarten und Reizzuständen, der Zerstörung von Nierensteinen und Tumoren sowie anderen Beschwerden dient. Aufgrund der engen konzeptuellen und technologischen Beziehung zu der MRT können unsere mehrstufigen/vielschichtigen 3D-Bildschirme sowie alle unsere anderen geeigneten Ansätze und Technologien auch genutzt werden, insbesondere aus den Bereichen Künstlichen Intelligenz, Multimedia und Robotik.
The MediWave system applies our wave-field technologies and our wave-field computing paradigm in the field of medicine. One specific application is for example an integrated system for the Extracorporeal Shockwave Therapy (ESWT), which is based on the techniques of the Magnetic Resonance Tomography (MRT) as well as the ultrasonic ray-field analysis, synthesis and projection, and serves for the treatment of fractures, especially of not uniting broken bones/pseudarthrosis, the abatement of painful calcification types and irritants, the destruction of kidney stones and tumors, and other afflictions. Due to the close conceptual and technological relation to the MRT our Multi-layered/Multi-stacked 3D Display as well as all of our other suitable approaches and technologies can also be used, specifically of the areas artificial intelligence, multimedia, and robotics.

 

   
EngiWave™ 16.November.2012
Das EngiWave-System funktioniert wie das MediWave-System, aber ist speziell für den Anwendungsbereich des Ingenieurwesens kon- zepiert.
The EngiWave system functions like the MediWave system, but is specifically designed for the application field of engineering.

 

   
Sensor Frame™ 13th of August 2012
Der Sensorrahmentechnologie macht den Rahmen einer Anzeige oder eines Schirms zu einer Sensoroberfläche. Er kann für die Navigation der Benutzerschnittstelle aber auch für die Anwendung von biometri- schen Funktionen und das Nehmen von Vitalparametern genutzt wer- den, die wiederum die Basis für zum Beispiel Komfort- und Sicher- heitsfunktionen sowie Pflege- und Gesundheitsmaßnahmen sind.
The Sensor Frame technology makes a frame of a display or screen a sensor surface. It can be utilized for the navigation of the user int- erface, but also for biometric functions and the taking of vital signs, which again are the foundations for for example further comfort and security functions and also and health measures.

 

   
Sensor Case™ 13th of August 2012
Die Sensorgehäusetechnologiearchitektur macht das Gehäuse eines Gerätes zu einer Sensoroberfläche und bezieht somit unsere Sen- sorrahmen und Sensortasten, die in ein Gehäuse integriert sind, mit ein. Selbstverständlich kann es auch als ein Teil unserer Anzeige-Gehäusebenutzerschnittstelle==Display-Case User Interface (DCUI), für die Anwendung von biometrische Funktionen und das Messen von Vitalparametern genutzt werden.
The Sensor Case technology architecture makes the casing of a device a sensor surface and hence includes our Sensor Frames and sensor keys that are integrated into a casing. Of course, it can also be utilized as a part of our Display-Case User Interface (DCUI) tech- nology, for the utilization of biometric functions and the measuring of vital signs.

 

   
Display-Case Control™ 16.February.2013
Das Konzept der Gehäuseanzeigebedienung==Display-Case Control (DCC) wendet einen kleinen Teil unseres Multi-Sensoransatzes an, der z. B. mit unserer knopflosen Sensorgehäusearchitektur ohne oder mit Sensorrahmen und Sensortasten gegeben ist, indem gewöhnliche Bedienelemente, wie Knöpfe, die im Gehäuse eines Geräts integriert sind, und Bedienelemente einer Graphische Benutzerschnittstelle== Graphical User Interface (GUI), wie Knöpfe, die auf dem Bildschirm mit berührungssentiver Eigenschaft angezeigt werden, vereinigt werden. So kann zum Beispiel die untere Hälfte einer Wählscheibe, wie sie von einigen Mutimediaabspielgeräten für die Navigation durch die Strukturen des Menüs und des Dateisystems und für die Kontrolle des Geräts bekannt ist, auf der Gehäuseseite plaziert sein, während die obere Hälfte auf dem Bildschirm angezeigt wird. Hierdurch können die Bedienelemente vergößert werden, sodass die/der BenutzerIn nicht mehr mit kleinen unhandlichen Bedienelemente hantieren muss. Weiter Vorteile sind die Möglichkeit, dass die Funktionalität und Darstellung eines Bedienelements mit vielen Eigenschaften erweitert werden kann und das eine aktuelle Funktion dargestellt wird, sodass eine/ein BenutzerIn es nicht zu lernen und blind zu benutzen hat. Zusätzlich ist auch ein virtuelles Sensorelement des Sensorgehäuses und des Sensorrahmens veränderbar, obwohl in diesem Fall eine/ein BenutzerIn es zu lernen und blind zu benutzen hat. Letztlich führte diese Entwicklung zu einer neuen Art von Benutzerschnittstellenme- tapher, die auf Konzepten der graphischen Benutzerschnittstelle und der Gestensteuerung basiert.
The Display-Case Control (DCC) concept applies a small fraction of our Multi-Sensor approach, as it is given with e.g. our button-less Sensor Case architecture without or with Sensor Frame and sensor keys, by uniting common operating/control elements like buttons integrated into the casing of a device, and operating/control elem- ents of a Graphical User Interface (GUI) like buttons shown on the display with touch feature. For example, the lower half of a large rotary dial, as it is known from some multimedia players for navigat- ing through the structures of the menu and the file system, and controlling the device, or one or more buttons, as they can be found below or beside the display of many mobile devices, can be placed on the side of the case, while the upper half is shown on the display. In this way the operator controls can be enlarged, so that the user does not have to handle the usual small and unhandy operating/con- trol elements anymore. Further advantages are the possibility that the functionality and presentation of the operating/control elements can be extended with many more features and that an actual funct- ion is displayed, so that the user has not to learn it and use it blind- ly. Additionally, a virtual sensor element of the Sensor Case and the Sensor Frame are also changeable, though in this case the user has to learn it and use it blindly. In the end, this development led to a new kind of user interface metaphor based on concepts of the GUI and the gesture control.

 

   
Smart Remote Control™ 26.August.2012
Die smarte Fernbedienung steuert Geräte jeglicher Typen aus Berei- chen wie etwa der Unterhaltungs- und Haushaltselektonik und der Heimautomatisation, indem die normalen Eingaben durch Berührung, Kommandos per Stimme und Sprache, Gesten oder Körperregistrierungen durch Positionierung und Körperbewegungen (Kinetik) in Funk-, Infrarotlicht- oder Infraschallsignale übersetzt werden. Je nach Version werden dazu Technologien genutzt, wie eine einfache Web-Kamera, komplexere Systeme, die auf den Techniken des strukturierten Lichts, der Laufzeitmessung oder/und strukturierten Lichtlaufzeit(messung) sowie der strukturierten Schalllaufzeit(messung) basieren und geeignete Bewegungssensoren. Weitere Varianten besitzen einen Bildschirm ohne oder mit berührungssensitiver Funktionalität, kabellose Netzwerkverbindung durch z. B. dem kabellosen lokalen Netzwerk==Wireless Local Area Network (WLAN), ein Telefonmodul mit Mikrofon und Lautsprecher, das über WLAN und Sprachübertragung über das Internetzprotokoll==Voice over IP (VoIP), DECT Heim-Handy, oder Mobiltelefon funktionieren kann, ein Kameramodul, oder/und eine kabellose Energieversorgung wie unser Wireless Resonant Power Link (WRPL) und andere Systeme. Die normale Funktion der Gerätesteuerung kann durch entsprechende Softwareapplikationen erweitert werden, wie zum Beispiel die Integration mit Computerspielen oder persönlichen Assistenten/Assistenzsystemen, die organisieren und lernen.
The smart remote controls devices of all types, like for example consumer electronics and home automation, by touch, voice and speech, gesture, position, or/and motion (kinetics) by translating the normal inputs, voice commands, gestures, or/and body registrations and movements into radio signals, infrared light or infrasound signals. Depending on the version different technologies like a simple web-camera more complex systems that are based on the techniques of structured light, time-of-flight, or/and structured time-of-light-flight sowie der structured time-of-sound-flight and suitable motion sensors are used. Further variants feature a display without or with touch or multi-touch funtionality, wireless network connectivity by e.g. the Wireless Local Area Network (WLAN), a telephone module with microphone and loudspeaker that can work over WLAN and Voice over IP (VoIP), home handy or mobile phone, a camera module, or/and a wireless power link like our Wireless Resonant Power Link (WRPL) and other systems. The normal function of controlling other devices can be extended by related software applications, like for example with computer games or personal assistants/assistance systems that organize and learn.

 

   
Mensch-Natur-Schnittstelle (Human Nature Interface™ (HNI)) 2006
Hardware und Software für Schnittstellen zwischen Mensch und Natur
Hardware and software for the interface between human and nature

 

   
Gam•E™ 1997
Gam•E ist unsere Gameboy basierte Mess-, Steuerungs- und Rege- lungslösung.
Gam•E is our Gameboy based Measuring-, Steering, and Controlling-solution.

 

   
Bod•E™ 2004
Das Bod•E Konzept umfasst Lab-on-Chip Module, die im Bereich von Nano- und Mikrometern arbeitende (Mikro-)Robotiksysteme sind. Die- se Module können mit integrierten Schaltungen verwendet werden, wie sie sich auch auf Secure Digital (SD)-Karten und Universellen Seriellen Bus (USB)-Stiften/-Steckern (siehe unsere Gesundheitskar- te für das 21. Jahrhundert) befinden, die wiederum als einsteckbare Module zur Erweiterung von tragbaren Spielkonsolen (siehe unsere MediBoy/MediGirl-Technologie) als auch von handelsüblichen Mobilte- lefonen, Tabletcomputern, smarten Uhren und vielen anderen mobilen Geräten wie dem Med!Scout genutzt werden. Eine weitere Eigen- schaft von Bod•E ist die nahtlose Integration mit OntoLinux (siehe unser Medi!Mobile-Konzept).
The Bod•E concept encompasses lab-on-chip modules, which are (micro-)robotic systems working on the nano and micro scale. These modules can be used with integrated circuits, as they are on Secure Digital (SD) cards and Universal Serial Bus (USB) sticks (see our 21st Century Health Care Card) as well, that again can be used as plug-in modules for the extension of portabel game consoles (see our Medi- Boy/MediGirl technology), as well as of normal cell phones, tablet computers, smart watches, and many other mobile devices like the Med!Scout. A further feature of Bod•E is the seamless integration with OntoLinux (see our Medi!Mobile concept).

 

   
HeartCore™/Core™ 200x
Der Herzkern erlaubt durch seine integrierte, auf einer perkutanen/ transkutanen Lichtsensor basierenden Herzrhythmus und -frequenz-Computer-Schnittstelle das Messen von Herzaktivitäten. Er wird durch den Fitkern und den Vitakern erweitert. Außerdem kann er durch die Nutzung von gewöhnlichen Technologien für den Daten- transport, wie dem Universellen Seriellen Bus (USB), persönlichen Bereichsnetzwerk (PAN) und kabellosen lokalen Netzwerk (WLAN), inklusive Full Wi-Fi und OntoBeam, mit anderen digitalen Geräten verbunden werden. Der Herzkern wird z. B. mit unserer HeartWatch, HeartEyewear, HeartEarwear und HeartWear verwendet, aber kann auch als das eigenständiges Gerät HeartScout genutzt werden.
The HeartCore enables with its integrated heart rhythm and rate computer interface, which is based on a percutaneous/transcut- aneous photosensor, for monitoring activities of the heart. It is extended by the FitCore and the VitaCore. Furthermore, by using common technologies for data transport, like the Universal Serial Bus (UBS), Personal Area Network (PAN), and Wireless Local Area Net- work (WLAN), inclusive Full Wi-Fi and OntoBeam, it can be connect- ed with other digital devices. The HeartCore is utilized with for ex- ample our HeartWatch, HeartEyewear, HeartEarwear, and HeartWear, but can also be used as the stand-alone device HeartScout.

 

   
VitaCore™ 200x
Der Vitakern ist ein medizinischer Gerätekern, der den Herzkern mit mehr Sensoren erweitert und so die Kontrolle von weiteren Vitalpa- rameter neben den Puls- und Herzfrequenzen ermöglicht, wie zum Beispiel Haut- und Körperkerntemperatur, Blutdruck, Atemfrequenz, Sauerstoffsättigung des Hämoglobins durch die Pulsoximetrie, insbe- sondere durch die Messmethode der peripheren Sauerstoffsättigung (sO2) mit dem perkutanen/transkutanen Fotosensor des Herzkerns, und sogar durch die elektrokardiogrammsynchronisierten Pulsoxime- trie mit der entsprechenden Eigenschaft des Fitkerns, der den Herz- kern erweitert, aber auch von Gefühlszuständen wie zum Beispiel Freude, Trauer und Stress durch die Nutzung der Verbindung von der Ontologischen Systemarchitektur und den verbundenen Betriebssys- templatformen OntoLix und OntoLinux zu der Emotionenmaschinen- architektur. Erweiterungen sind mit der Integration von unserem mul- timedialen Stethoskop und unserer Bod•E-Technologie als Med!Core genauso möglich wie die Integration mit unserem Med!Mobile-Kon- zept. Außerdem kann er durch die Nutzung von gewöhnlichen Tech- nologien für den Datentransport, wie dem Universellen Seriellen Bus (USB), persönlichen Bereichsnetzwerk (PAN) und kabellosen lokalen Netzwerk (WLAN), inklusive Full Wi-Fi und OntoBeam, mit anderen digitalen Geräten verbunden werden. Der Vitakern wird unter ande- rem mit unserer VitaWatch, VitaEyewear, VitaEarwear und VitaWear verwendet, aber kann auch als das eigenständiges Gerät VitaScout genutzt werden.
The VitaCore is a medical device core, which extends the HeartCore with more sensors and in this way makes the monitoring of additional vital parameters possible besides the pulse and heart rate, like for example skin and core body temperature, blood pressure, respiratory rate, oxygen saturation of hemoglobin by the pulse oximetry, specif- ically by the Saturation of peripheral Oxygen (SpO2) measurement method with the percutaneous/transcutaneous photosensor of the HeartCore, and even by the electrocardiography-synchronized pulse oximetry with the related feature of the FitCore, which extends the HeartCore, but also of emotional states, like pleasure, sorrow, and stress for example, by using the connection of the Ontologic System (OS) architecture and the related operating system platforms Onto- Lix and OntoLinux to the Emotion Machine Architecture. Extensions with the integration of our multimedia stethoscope as well as of our Bod•E technology as the Med!Core is possible just as the integration with our concept of the Med!Mobile. Furthermore, by using common technologies for data transport, like the Universal Serial Bus (UBS), Personal Area Network (PAN), and Wireless Local Area Network (WLAN), inclusive Full Wi-Fi and OntoBeam, it can be connected with other digital devices. The VitaCore is utilized with for example our VitaWatch, VitaEyewear, VitaEarwear, and VitaWear, but can also be used as the stand-alone device VitaScout.

 

   
FitCore™ 1.March.2012
Die Fitkern ist ein Fitness-Kontrollsystem, das den Herzkern und den VitaCore erweitert indem er die Körperbelastungen feststellt und den Kalorienverbrauch sowie die Fitness misst, brechnet und leitet. Dazu wird unter anderem die Prozedur des Elektrokardiogramms (EKG) an- gewendet. Außerdem kann er durch die Nutzung von gewöhnlichen Technologien für den Datentransport, wie dem Universellen Seriellen Bus (USB), persönlichen Bereichsnetzwerk (PAN) und kabellosen lo- kalen Netzwerk (WLAN), inklusive Full Wi-Fi und OntoBeam, mit an- deren digitalen Geräten verbunden werden. Der Fitkern wird z. B. mit unserer FitWatch, FitEyewear, FitEarwear und FitWear verwendet, aber kann auch als das eigenständiges Gerät FitScout genutzt werden.
The FitCore is a fitness monitoring system that extends the Heart- Core and the Vitacore by observing the body stresses and measur- ing, calculating and managing the calorie consumption as well as fitness. For this, the ElectroCardioGraphy (ECG) procedure is applied among others. Furthermore, by using common technologies for data transport, like the Universal Serial Bus (UBS), Personal Area Network (PAN), and Wireless Local Area Network (WLAN), inclusive Full Wi-Fi and OntoBeam, it can be connect- ed with other digital devices. The FitCore is utilized with for example our FitWatch, FitEyewear, FitEar- wear, and FittWear, but can also be used as the stand-alone device FitScout.

 

   
Med!Core™ 200x
Der Med!Kern vereinigt den VitaKern mit der Bod•E-Technologie. Er kann auch als ein eigenständiges medizinisches Gerät genutzt wer- den, das Med!Scout genannt wird.
The Med!Core unites the VitaCore with the Bod•E technology. It can also be used as a stand-alone medical device called Med!Scout.

 

   
Med!Mobile™ 2008
Die Entwicklung der sogenannten Secure Digital (SD) Einsteckkarten und der Universal Serial Bus (USB) Stecker haben einen beträchtlich- en Fortschritt erfahren. Mit Med!Mobile nutzen wir die Technologien der SD-Karten und USB-Stecker, die zum Beispiel mit der Bod•E-Te- chnologie ausgestattet sind (siehe auch unsere 21st Century Health Care Card), zur Transformation von Mobiltelefonen, Tabletcomputern, smarten Uhren und weiteren mobilen Geräten zu den bekannten Star Trek Trikordern ähnlichen medizinischen Unterstützungssystemen. Weitere Möglichkeiten ergeben sich durch die Integration des Vita- kerns und des Med!kerns. Alle System besitzen auch die Möglichkeit der nahtlosen Integration mit OntoLinux.
The development of the so called Secure Digital (SD) cards and the Universal Serial Bus (USB) sticks have made substantive progress. With Med!Mobile we use the technologies of the SD card and the USB sticks, which are equipped with the Bod•E technology for ex- ample (see also our 21st Century Health Care Card), to transform mobile/cell phones, tablet computers, smart watches, and further mobile devices into the well known Star Trek Tricorders like medical support systems. Further possibilities arise from the integration of the VitaCore and the Med!Core. All systems also own the possibility of the seamless integration with OntoLinux.

 

   
Med!Watch™ 200x
Die besondere Variante Med!Watch ist die Kombination von Bod•E mit unserem SmartWatch-System™.
The particular variant Med!Watch is the combination of Bod•E with our SmartWatch™ system.

 

   
Med!Eyewear™
Die besondere Variante Med!Eyewear ist die Kombination von Bod•E mit unserem SmartEyewear-System™.
The particular variant Med!Eyewear is the combination of Bod•E with our SmartEyewear system.

 

   
Med!Earwear™
Die besondere Variante Med!Earwear ist die Kombination von Bod•E mit unserem SmartEarwear-System.
The particular variant Med!Earwear is the combination of Bod•E with our SmartEarwear system.

 

   
Med!Wear™
Die besondere Variante Med!Wear ist die Kombination von Bod•E mit unserem SmartWear-System.
The particular variant Med!Wwear is the combination of Bod•E with our SmartWear system.

 

   
MediBoy™/MediGirl™ 21.November.2008
Der MediBoy ist eine Erweiterung unserer Bod•E Lösung für den Nintendo Gameboy zu dem bekannten Star Trek Trikorder und eine Ergänzung zu unserer bahnbrechenden Healing by the Hands Tech- nologie. Dies ist was wir einfache Medizin und Pflege nennen.
The MediBoy is an extension of our Bod•E solution for the Nintendo Gameboy to the well known Star Trek Tricorder and a complement to our Healing by the Hands breakthrough technology. This is what we call simple medicine and healthcare.

 

   
Med!Phone™ 21.November.2008
Die besondere Variante Med!Phone kann als ein Äquivalent zu der Kombination von Bod•E mit MediBoy/MediGirl betrachtet werden.
The particular variant Med!Phone can be seen as an equivalent to the combination of Bod•E with MediBoy/MediGirl.

 

   
Med!Tablet™/Med!Pad™ 21.November.2008
Die besondere Variante Med!Tablet ist die Kombination von Bod•E mit unseren intelliTablet (iTablet) Tablet-und Pad-Computern.
The particular variant Med!Tablet is the combination of Bod•E with our intelliTablet (iTablet) tablet and pad computers.

 

   
Holodoc 1.0 8.November.2010
Der Holodoc (HOLOgraphischer DOCtor) vereint die Holomer, den Retinaprojektor/Retinabildschirm oder das Retinaskop mit unserem Ontologischen System (OS) und Hightech-Betriebssystem (HBS) OntoLinux und den Bod•E Modulen. In die Schnittstellen können die Erkennungsmarke P-tag der Holomer 2.0 als auch unsere Secure Digital (SD) Einsteckkarte basierten Systeme Med!Mobile sowie unsere Gesundheitskarte für das frühe 21. Jahrhundert eingesteckt werden.
The Holodoc (HOLOgraphic DOCtor) unites the holomer, the Retina Projector/Retina Screen or the Retinascope with our Ontologic Syst- em (OS) and Hightech Operatingsystem (HOS) OntoLinux and the Bod•E modules. In the interfaces can be plugged the identity tag P-tag of the Holomer 2.0 and also our Secure Digital (SD) card-bas- ed systems Med!Mobile as well as our 21st Century Health Care Card.

 

   
Cook!Mobile™ 1.December.2008
Diese neue Software-Applikation bringt Ihnen den ultimativen Koch- kurs auf Ihr Mobiltelefon, Tabletcomputer oder anderen mobilen Ge- räten. Außerdem bildet diese Lösung mit Cook•E/Chef•E und den anderen Rob•Es, Hous•E, Wow•E als auch unserer McNano Techno- logie und OntoLinux ein harmonisches Gesamtsystem.
This new software brings you the ultimative cookery course on your cell/mobile phone, tablet computer or other mobile devices. Further- more, this solution makes up a harmonic overall system with Cook•E/ Chef•E and the other Rob•Es, Hous•E, Wow•E, as well our McNano technology, and OntoLinux.

 

   
Holochef™/Holocook™ 1.0 8.November.2010
Mit dem Holokoch gibt es unseren ultimativen Kochkurs jetzt auch als holographische Variante, die die Holofood mit einem Retinaprojektor/ Retinabildschirm oder einem Retinaskop kombiniert.
With the Holochef our ultimative cookery course is now available as holographic variant, too, which combines the Holofood with a Reti- na Projector/Retina Screen or a Retinascope.

 

   
MultiLego™ 13.April.2011
MultiLego erweitert Lego, insbesondere die (Mini)Figuren, mit multi- medialen Eigenschaften, die zum Beispiel einen Sprachgenerator für sprechende Lego (Mini)Figuren umfasst.
MultiLego extends Lego, especially the (mini)figures, with multimedia features, that comprises a speech synthesizer for speaking Lego (mini)figures, for example.

 

   
     
Brain Computer Interface (BCI; Gehirn-Computer-Schnittstelle) 1999
Seit 1996 entwickeln wir Hardware und Software für Schnittstellen zwischen Gehirn und Computer. Zusammen mit Entwicklungen, wie das Hightech-Betriebssystem (HOS) OntoLinux und unser neuronaler DetektorChip (NDC), neuronaler NetzwerkChip (NNC) und neuronaler Wiser-Chip (NNC), ergibt sich eine einmalig Kompetenz, die wir in die Konstruktion unserer Schnittstellen zwi- schen menschlichem Gehirn und Rechner vorteilhaft nutzen.
Since 1996 we develop hardware and software for interfaces bet- ween the brain and the computer. Together with developments, like the Hightech Operating System (HOS) OntoLinux and our Neural Detector Chip (NDC), Neural Net Chip (NNC), and Neural Wiser Chip (NNC), a unique competence arises that we apply advantageously for the construction of our interfaces between human brain and computer.

 

   
Orbis 200x
Orbis basiert auf dem Entwicklungsprozess eines Gehirns und der wissenschaftlichen Erkenntnis, das sich das Neuronen-Netzwerk durch metapyhsische Denkprozesse physisch formt indem sich Neuronen verknüpfen oder von einander wieder lösen und deshalb auch GehirnOrbis==BrainOrbis oder GehirnKreis==Brain Circle genannt wird. Ein Orbis-System funktioniert im Prinzip wie die Datensicherungsfunktion eines Dateisystems, das irreführenderweise Zeitmaschine genannt wird, visuelle Software-Anwendungen für historische Zeitreisen und moderne Routenplanern, hier aber auf den Entwicklungsprozess des Gehirns und der somit möglichen Gedankenräume angewendet wird. Es bietet aber auch ein paar Extras wie das folgende Anwendungsszenario zeigt: Einfach die Start- und Zielzeitpunkte und das gewünschte Thema eingeben und schon erhält man eine Entwicklungsroute.
Our Orbis technology is based on the development process of a brain, especially on the scientifically proved process that the neuron network is physical formed by thinking processes by neurons connection or loosing to each other, and therefore also called BrainOrbis or brain circle. In principle, an Orbis system functions like the backup feature of a file system misleadingly called time machine, visual software applications for historical time travel, and modern route planners. But it offers also some extras, as the following application scenario shows: Simply enter the starting and end times and the desired theme, and one receives a development route.

 

   
Orbis 2.0 200x
Da Gehirnwellen elektromagnetische Wellen sind, kann unsere Orbis-Technologie mit unseren Wellenfeldtechnologien, unserem Paradigma des Wellenfeldrechnens und unserem Multiwave-Konzept kombiniert werden. So reicht das Fotografieren oder Filmen einer Person für wenige Augenblicke aus um das Gehirnfeld zu erhalten, um zum Beispiel die wahren Motivationen und Intentionen von Personen in der Politik, der Wirtschaft, der Wissenschaft oder auch in der Kunst festzustellen.
Because brain-waves are electormagnetic waves, our Orbis technology can be combined with our wave-field technologies, our wave-field computing paradima, and our Multiwave concept. In this way, taking a photography or making a very short video of a person is enough to get the brain-field model for e.g. determining the true motivations and intentions of a person in the politics, economics, sciences, or the arts.

 

   
Orbis Rendering/Synthesis 200x
Die Orbissynthese ermöglicht durch die Anwendung einer Mensch-Objekt-Schnittstelle==Human Object Interfaces (HOI) und einer Gehirn-Computer-Schnittstelle==Brain Computer Interface (BCI) sowie OntoLinux, dass anhand der Entwicklung eines Gehirns die Gedanken(räume) dazu synthetisiert werden können. Somit können bei Psychoterrorattacken sowohl auf der Seite von Tätern die Aktio- nen als auch auf der Seite von Opfern die Ergebnisse festgestellt werden. Zudem wird eine gezielte Heilung von psychologischen Krankheiten unterstützt. Außerdem ist die Technologie eine der Grundlagen für unseren Ansatz der reflektiven Selbstsymbiose bezie- hungsweise des Selbstsymbionten und steht im engen Zusammen- hang mit dem Holomer. Auch für die Anwendung in den Bereichen der gemischten Realität==Mixed Reality (MR) und der Erweiterten Identi- tät==Extended Identity (EI) ist die Technologie bestens geeignet.
The Orbis Rendering/Synthesis enables by the utilization of the Human Object Interface (HOI) and the Brain Computer Interface (BCI) as well as OntoLinux that the development of the Brain the mind(space) can be synthesized/rendered. Furthermore, a targeted cure of psychological diseases is supported. Besides this, the tech- nology is one of the foundations of our approach of the reflective self-symbiosis respectively the selfsymbiont and strongly related with the Holomer. The technology is also best suited for the utilizat- ion in the fields of the Mixed Reality (MR) and the Extended Identity (EI).

 

   
Cyber Eye 1999
Unsere Cyber Eye-Technologie ist das elektronische Auge der nächs- ten Generation, dessen verschiedene Ausführungen Wahrnehmungs- eigenschaften des elektromagnetischen Spektrums in den Bereichen der Funkwellen sowie des infraroten, sichtbaren und ultravioletten Lichts besitzen können und unsere Gehirn-Computer-Schnittstelle mit Head-Mounted Displays==am Kopf befestigten Anzeigen (HMDs), EyeTaps== Augenanzapfungen und Geräten unseres SmartEyewear-Systems und unseren weiteren iRaiment-Systemen verbindet. Wird unsere Technologie der More Eyes==Mehraugen hinzugefügt, dann macht die/der BenutzerIn Erfahrungen, die weit über das Sehen mit dem Visual Instrument and Sensory Organ Replacement==Sehinstru- ment und sensorischer Organersatz (VISOR) von Geordi La Forge aus der "Star Trek"-Saga, mit mehreren Augenpaaren, wie etwa eine Spinne, oder mit Facettenaugen eines Insekts, wie z. B. eine Fliege oder eine Biene, hinausgeht.
Our Cyber Eye technology is the electronic eye of the next generat- ion with different versions that can have perception features of the electromagnetic spectrum in the range of the radio waves, as well as the infrared, visible and ultraviolet light, and that connects our Brain Computer Interface (BCI) with Head-Mounted Displays (HMDs), EyeTaps, and devices of our SmartEyewear system and our further iRaiment systems. If our technology More Eyes is added, the user gains experiences that go even far beyond of seeing with the Visual Instrument and Sensory Organ Replacement (VISOR) of Geordi La Forge of the "Star Trek" saga, with multiple pairs of eyes, like e.g. a spider, or with compound eyes of insects, like e.g. a fly or a bee.

 

   
Cyber Ear 1999
Unsere Cyber Ear-Technologie ist das elektronische Ohr der nächsten Generation, dessen verschiedene Ausführungen Wahrnehmungsei- genschaften des akustischen Spektrums in den Bereichen des Infra-, Hör- und Ultraschalls besitzen können und unsere Gehirn-Computer-Schnittstelle mit Head-Mounted Speakers (HMS) and Earphones==am Kopf befestigten Lautsprechern und Ohrhörern, EarTaps==Ohrenan- zapfungen und Geräten unseres SmartEarwear-Systems und unseren weiteren iRaiment-Systemen verbindet. Wenn unsere Technologie der More Ears==Mehrohren hinzugefügt wird, dann macht die/der Benut- zerIn Erfahrungen, die weit über das Hören mit einzelnen Ohren, wie zum Beispiel ein nachtaktives Insekt, oder eine Fledermaus, ein Hund oder ein Delfin, und mehreren Ohren, die sogar in der Natur nicht ex- istieren, hinausgeht.
Our Cyber Ear technology is our electronic ear of the next generat- ion with different versions that can have perception features of the acoustic spectrum in the range of the infra- and ultrasound, and connects our Brain Computer Interface (BCI) with Head-Mounted Speakers (HMS) and earphones, EarTaps, and devices of our Smart- Earwear system and our further iRaiment systems. If our technology More Ears is added, the user gains experiences that go even far be- yond of hearing with single ears, like e.g. a nocturnal insects, or a bat, a dog or a dolphin, and with multiple ears, which are even not existent in nature.

 

   
Cyber Finger 1999
Unsere Cyber Finger-Technologie repräsentiert den elektronischen Finger der nächsten Generation, dessen verschiedene Versionen he- rausragende haptische Eigenschaften besitzen können und unsere Gehirn-Computer-Schnittstelle mit Geräten unseres SmartHandwear-Systems und unseren weiteren iRaiment-Systemen vereint. Fügt man unsere Technologie der More Fingers==Mehrfinger hinzu, dann macht die/der BenutzerIn Erfahrungen, die weit über das Tasten mit mehre- ren Fingern hinausgeht. Zudem werden viele spannende Anwendun- gen möglich gemacht.
Our Cyber Finger technology represents the electronic finger of the next generation with different versions that can have outstanding haptic features, and that unites our Brain Computer Interface (BCI) with devices of our SmartHandwear system and our further iRaiment systems. If our technology More Fingers is added, the user gains ex- periences that goes even far beyond of touching with multiple fing- ers. In addition, many exciting applications are made possible.

 

   
Cyber Limb 1999
Wir haben eine neue Generation von unseren Kybernetiktechnologien entwickelt, die auf unseren Roboterexterieurs und Exoskletts mit multimodalen Benutzerschnittstellen basiert. Im Fall eines künstlichen Körperglieds, wie einer Arm- oder Handprothese, ist es ein bionisches bzw. robotisches Gerät mit einem integrierten Tastfeld==Touchpad oder einer berührungssensitiven Anzeige==Touchscreen, sodass kein zusätzliches (mobiles) Gerät für seine Handhabung und Kontrolle be- nötigt wird. Weitere Versionen besitzen die Möglichkeiten auch mit unseren sprach-, gestik- und gedankengesteuerten Schnittstellen und unserer Adaptrobotik-Technologie erweitert zu werden. Natürlich kann die Technologie für alle bionischen und kybernetischen Körperglieder, -verbesserungen und -erweiterungen genutzt werden.
We have developed a new generation of our cybernetic technologies based on our robotic exteriors and exoskeletons with multimodal user interfaces. In the case of an artificial limb like an arm or a hand pro- sthesis it is a robotic device with an integrated touchpad or touch- screen, so that no additional (mobile) device is needed for its man- agement and control. Further versions also feature a voice or/and gesture controlled interface, and the possibilities to be extended with our Brain Computer Interface (BCI) and our Adaptrobotics tech- nology for easy learning of new tasks. For sure, the technology can be used for all bionic and cybernetic limbs, and body enhancements and extensions.

 

   
Enhanced Cognition (Verbesserte Kognition) 200x
Unter dem Begriff verbesserte Kognition werden Methoden, Materialien und Maschinen für die Steigerung der Wahrnehmungsprozesse und des Denkvermögens zusammengefasst.
Under the term enhanced cognition are condensed methods, materials, and machines for the improvement of cognitive processes and intellectual power.

 

   
     

 

MultiCouture™ 2008
MultiCouture ist die Kurzform der Zusammenführung von Multimedia und Haute Couture und bezeichnet dementsprechend Hightech-Mo- dekreationen, wie unserer intelligenten Kleidung und unser robotisch- en Kleidung, die aus luxuriösen und hochtechnologischen Materialien individuell maßgeschneidert werden.
MultiCouture is the short form of the joining of Multimedia and Haute Couture, and correspondingly denotes Hightech Fashion™ creations, like our intelligent raiment/wear and our robotic raiment/wear, that are individually custom-tailored out of luxury and hightechnological materials.

 

   
Sm@rtWatch™ 200x
Mit dem Label Sm@rtWatch bezeichnen wir unsere Serie von smarten (Armband)Uhren mit unterschiedlichen Konstruktionen und Eigen- schaften. Die Modelle der Sm@rtWatch-Produktlinie können mit den Funktionen aller anderen Modelle sowie als Weltneuheit mit unseren Lösungen WREL/WRPL@Home und PowerTable, aber auch mit unse- rer iArchitektur kombiniert werden. Als Materialien können unter an- derem auch unser dehnbarer Akkumulator, dehnbarer Solarkollektor, Akkugewebe und Solargewebe verwendet werden, insbesondere für ein optionales Armband.
With the label Sm@rtWatch we denote our series of smart personal/ wrist watches with different constructions and features. The models of the Sm@rtWatch product line can be combined with the functions of all other models, and also as a world premier with our solutions WREL/WRPL@home and PowerTable, but also with our iArchitecture. As materials our Stretch Accumulator, Stretch Solar Collector, Accu Fabrics, and Solar Fabrics can be used among others, specifically for an optional wrist band.

 

   
WrapWatch™ 2008
Die WrapWatch wickelt sich zum Beispiel von alleine um ein Handge- lenk, wenn man es darüber schlägt. Als Material kann unter anderem unser elektronisches Polymer (eP) verwendet werden.
The WrapWatch wrapes around a wrist all alone, for example, if it is slapped over it. As material our electronic Polymer (eP) can be used among others.

 

   
SolarWatch™ 15.August.2013
Die SolarWatch bestizt Komponenten, die elektrischen Strom aus Sonnenlicht generieren. Diese Komponenten können zum Beispiel ein Solarmodul sein, das im Gehäuse integriert ist, oder unser Solarge- webe oder/und unser dehnbarer Solarkollektor, die im Armband einge- fügt werden oder sogar das gesamte Armband sind.
The SolarWatch has components, which generate electric power out of sunlight. These components can be a solar panel integrated into the watch case, or our Solar Fabrics or/and our Stretch Solar Coll- ector, that are inset in the wrist band or even are the whole wrist band.

 

   
CamW@tch
Die CameraWatch integriert eine Armbanduhr mit einer Kamera. Sie ist an sich keine besondere Technologie mehr, aber kann trotzdem als Komponente für andere smarte (Armband)Uhren dienen.
The CameraWatch integrates a wrist watch with a camera. It is not a special techology by itself anymore, but can still serve as a comp- onent for other smart watches.

 

   
PhoneW@tch
Die PhoneWatch integriert eine Armbanduhr mit einem Mobiltelefon. Sie ist an sich keine besondere Technologie mehr, aber kann trotz- dem als Komponente für andere smarte (Armband)Uhren dienen.
The PhoneWatch integrates a wrist watch with a mobile/cell phone. It is not a special techology by itself anymore, but can still serve as a component for other smart watches.

 

   
CS Watch™ 28.October.2008
Die CS Watch ist eine smarte (Armband)Uhr/Sm@rtWatch mit einem E-Papier-Bildschirm, der farbige Inhalte darstellen kann. Durch die Verwendung des elektronischen Polymers (eP) kann die Anzeige auch direkt in das Uhrenglas integriert werden, wodurch die zusätzliche Möglichkeit gegeben ist, dass man das Uhrenglas öffnen kann um hindruchzusehen und somit die Paradigmen der gemischten Realität und der Angereicherten Realität (AR) realisieren zu können.
The CS Watch is a Sm@rtWatch with an e-paper screen, that can display coloured content. With the utilization of the electronic Polymer (eP) the display can be integrated into the watch glass directly, whereby the additional possibility is given, that the watch glass can be opened to look through and hence to realize the paradigms of the Mixed Reality (MR) and the Augmented Reality (AR).

 

   
LED W@tch™ 200x
Die LED-Watch besitzt eine Anzeige auf der Basis der LichtEmittie- renden Diode (LED), wie z. B. die Organische LED (OLED), die Passive Matrix OLED (PMOLED) und die Aktive Matrix OLED (AMOLED). Durch die Verwendung unseres elektronischen VerbundSicherheitsglasses (eVSG) oder elektronischen Polymers (eP) kann die Anzeige oder eine weitere Anzeige auch direkt in das Uhrenglas oder einen Deckel inte- griert werden. Durch die Varianten mit einem aufklappbaren Uhren- glas oder -deckel, die geöffnet werden können um hindurchzusehen, und der Hinzunahme der CamWatch oder einer anderen Uhr mit einem Kameramodul ist zum Beispiel das Paradigma der Angereicherten Realität (AR) realisierbar.
The LED Watch features a display on the basis of the Light-Emitting Diode (LED), like for example the Organic LED (OLED), the Passive Matrix OLED (PMOLED), and the Active Matrix OLED (AMOLED). With the utilization of our electronic Laminated Security/Safety Glass (eLSG) or electronic Polymer (eP) the display or an additional display can be integrated into the watch glass or a cover directly. By the variants with a hinged watch glass or cover, which can be opened for looking through, and the adding of the CamWatch or a different watch with a camera module the paradigm of the Augmented Reality (AR) is realizable for example.

 

   
3D W@tch™ 2003
Die 3D-Watch besitzt einen 3D-Bildschirm von unserem 3D-Palm-Computer, den wir bis zum Jahr 2003 entwickelt haben und wie er auch mit neueren portablen Spielkonsolen genutzt wird, unsere wei- terentwickelten mehrstufigen/vielschichtigen 3D-Bildschirme oder unsere Technologie der mobilen 4D Bildgebungssysteme, die sich aus der Kombination mit unserer KineticWatch ergibt, um Inhalte dreidi- mensional darzustellen. Die Anzeige oder eine weitere Anzeige kann auch direkt in das Uhrenglas oder einen Deckel integriert werden. Die speziellen Varianten mit einem aufklappbaren Uhrenglas oder -deckel, die man öffnen kann um hindruchzusehen, ermöglichen unter ande- rem das Paradigma der Angereicherten Realität (AR) zu realisieren.
The 3D Watch features a 3D display of our 3D-Palm-Computer, that we developed until the year 2003 and as it is also used with newer handheld game consoles, our further developed Multi-Layer/Stacked Displays, or our technology of the Mobile 4D Image Displays, which results from the combination with our KineticWatch, for displaying content three-dimensionally. The display or an additional display can also be integrated into the watch glass or a cover directly. The special variants with a hinged watch glass or cover, which can be opened for looking through, make possible to realize the paradigm of the Augmented Reality (AR) among others.

 

   
BeamW@tch™ 200x
Die BeamWatch besitzt einen oder mehrere Projektoren, die auf un- seren NanoProjektoren basieren, um Informationen, wie z. B. Zeit und Datumsangaben, auf den Körper der Benutzerin/des Benutzers oder auf beliebige Objekte zu projizieren, wie z. B. eine Wand, eine Tischplatte oder ein Uhrenglas oder Uhrendeckel zum Aufklappen, die zum Hindurchsehen geöffnet werden können, sodass die Paradigmen der geMischten Realität (MR) und im letzteren Fall der Angereicher- ten Realität (AR) realisisert werden können.
The BeamWatch has one or more beamers that are based on our NanoProjectors for projecting informations, like e.g. time and date, on the body of its wearer or on any objects, like e.g. a wall, a table top, or a hinged watch glass or cover, that can be oppened for look- ing through, so that the paradigms of the Mixed Reality (MR) and in the latter case of the Augmented Reality (AR) can be realized.

 

   
EyeWatch™ 200x
Die EyeWatch nutzt unsere Retinaprojektion um Informationen, wie z. B. Zeit und Datumsangaben in die Augen seiner Benutzerin/seines Benutzers zu projizieren.
The EyeWatch features our Retina Projection for projecting inform- ations in the eyes of its wearer.

 

   
ActiveW@tch™ 200x
Die ActiveWatch besitzt unseren aktiven Schirm==Active Screen oder unsere aktive Anzeige==Active Display. Genauso wie andere smarte (Armband)Uhren, zum Beispiel die LED W@tch, kann durch entsprechende Konstruktion die Realisation des Paradigmas der An- gereicherten Realität (AR) ermöglicht werden.
The ActiveWatch features our Active Screen or our Active Display. In the same way like other smart watches, for example the LED W@tch, the realisation of the Augmented Reality (AR) paradigm can be made possible.

 

   
CloakWatch™ 10.August.2013
Die CloakWatch nutzt nach Bedarf die Technologien der Camera- Watch, LED-Watch, 3D-Watch, ActiveWatch und KineticWatch als auch ein geeignetes Metamaterial, sodass die Paradigmen der Ange- reicherten Realität (AR) und der geMischten Realität (MR) realisierbar sind. Im Prinzip funktioniert diese Uhrentechnologie wie eine Tarnvor- richtung indem man zum Beispiel ein Handgelenk hochhält und hin- durchsieht, wobei es mit unserer Lösung sogar möglich ist zusätzli- che Informationen zu erhalten. Für ihre Realisierung kann ein Kame- ramodul in das Armband oder den Verschluss auf der anderen Seite des Handgelenks oder in das Gehäuse im Fall einer Taschenuhr inte- griert werden.
The CloakWatch uses as needed the technologies of the Camera- Watch, LED Watch, 3D Watch, ActiveWatch, and KineticWatch as well as a suitable Metamaterial, so that the paradigms of the Aug- mented Reality (AR) and the Mixed Reality (MR) are realizable. Bas- ically, this watch technology works like a cloaking device by holding a wrist up and looking through for example, while it is even possible with our solution to get additional informations. For its realization a camera module can be integrated in the wristband or the clasp on the other side of the wrist or in the casing in the case of a pocket watch.

 

   
MultiW@tch™ 29.October.2008
Die MultiWatch führt die Konzepte einer Uhr mit Multimedia, inklusive Text, Graphiken, Animationen, Musik, Bilder, Videos und so weiter, zusammen. Sie kann unter anderem einen E-Papier-Bildschirm besit- zen.
The MultiWatch brings together the concepts of a watch with mul- timedia, inclusive text, graphics, animations, music, pictures, videos, and so on. It can feature an e-paper display among others.

 

   
MarkupWatch™ 200x
Die MarkupWatch nutzt normale Auszeichnungssprachen (wie etwa HyperText Markup Language (HTML), Extendable Markup Language (XML) und XML HTML (XHTML)) und deren Konzepte, vor allem den sogenannten Canvas-Tag für das Zeichnen von 2D- und 3D-Graphi- ken, um Informationen und Inhalte darzustellen, zum Beispiel als eine MultiWatch oder eine SmartWebWatch™.
The MarkupWatch uses standard markup languages (e.g. HyperText Markup Language (HTML), Extendable Markup Language (XML) and XML HTML (XHTML)) and their concepts, specifically the so-called tag canvas for the drawing of 2D and 3D graphics, for displaying informations and contents, for example as a MultiWatch or a Smart- WebWatch™.

 

   
WebW@tch™ 200x
Die WebWatch nutzt Netzwerktechnologien, insbesondere Funktech- nologie basierte, wie sie zum Beispiel auch von Mobiltelefonen ge- nutzt werden, inklusive Bluetooth, Full Wi-Fi und MultiWLAN, und das Internetprotokoll.
The WebWatch uses network technologies, especially radio techno- logy based, like they were utilized by mobile/cell phones for example, inclusive Bluetooth, Full Wi-Fi and MultiWLAN, and the internet pro- tocol.

 

   
CloudWatch™ 1.March.2012
Die CloudWatch ist eine WebWatch, die als Weltpremiere die Konzep- te einer Uhr und dem Cloud-Computing zusammenführt.
The CloudWatch is a WebWatch that brings together the concepts of a watch and the cloud computing, as a world's first.

 

   
TagWatch™ 1.March.2012
Die TagWatch stellt lineare/eindimensionale Strichcodes, Matrixcodes /zweidimensionale (Strich)Codes/2D-Codes, wie den Quick-Resp- onse-Code (QR Code), den Data-Matrix-Code und den Aztec-Code, Punktcodes, Composite-Codes sowie andere Kodierung dar. Besonde- re Versionen können sogar Etiketten der Funktechnologien Near Field Communication (NFC), Radio-Frequency IDentification (RFID) und an- dere emulieren, aber auch durch eingebaute elektronische Bauelemente beliebige Codes und Etiketten erfassen.
The TagWatch displays one-dimensional/linear barcodes, two-dim- ensional codes/2D codes/matrix codes, like the Quick Response code (QR Code), Data Matrix code and Aztec code, composite-codes, as well as other codes. Special versions can emulate tags of the radio technologies Near Field Communication (NFC), Radio-Frequency ID- entification (RFID) and others, but also record codes and tag with built-in electronic elements for reading and receiving.

 

   
VibeWatch™ 200x
Die VibeWatch ist eine smarte (Armband)Uhr/Sm@rtWatch, die vi- brieren kann und dabei zum Beispiel den Morsekode verwendet um die Zeit anzugeben.
The VibeWatch is a Sm@rtWatch that can vibrate and thereby use for example the morse code for telling the time.

 

   
HapticWatch™ 1.March.2012
Die HapticWatch besitzt einen haptischen Bildschirm, wie der hapti- sches Papier basierte, oder/und die WaveTouch-Technologie.
The HapticWatch features a hapticle display, like the haptic paper based, or/and WaveTouch technology.

 

   
TouchWatch™ 26.January.2012
Die TouchWatch basiert auf dem Konzept der Touch-, Multitouch- oder/und der TouchWave-Technologie.
The TouchWatch is based on the concept of the touch, multi-touch, or/and TouchWave technology.

 

   
KineticWatch™ 26.January.2012
Die KineticWatch ist eine smarte (Armband)Uhr/Sm@rtWatch, die unsere MobileKinetic- und MultiKinetic-Technologien verwendet.
The KineticWatch is a Sm@rtWatch, which applies our MobileKinetic and MultiKinetic technologies.

 

   
WaveW@tch™ 24.February.2012
Die WaveWatch ist eine smarte (Armband)Uhr/Sm@rtWatch, die unser Wellenfeldrechnenparadigma und unsere Wavicle-, TouchWave- oder/ und WaveTouch-Technologien verwendet.
The WaveWatch is a Sm@rtWatch, which applies our wave-field computing paradigm, Wavicle, TouchWave or/and WaveTouch technologies.

 

   
MuWatch™/μWatch™/MuClock™ 15.May.2008
Die μWatch ist die weltweit erste Armbanduhr mit einer integrierten Muskel-Computer-Schnittstelle. Auf diese Art und Weise können Bewegungen der Finger durch das Messen ihrer Muskelaktivität er- kannt werden. Die Lösung ermöglicht den berührungslosen Gebrauch der Uhr als auch anderer Geräte.
The μWatch is the worldwide first clock/watch with an armband that has an integarted muscle-computer interface. By doing this, finger movements can be recognized by monitoring the activity of muscles. The solution makes the touch-free using of the clock itself, but also of other devices possible.

 

   
HeartWatch™/Watch™ 200x
Die HeartWatch ist eine smarte (Armband)Uhr/Sm@rtWatch, die durch ihre integrierte Herzfrequenz und Herzrhythmus-Computer- Schnittstelle auf der Basis eines perkutanen/transkutanen Lichtsen- sor das Messen und Beobachten von Herzaktivitäten erlaubt. Sie wird durch die FitWatch und die VitaWatch erweitert. Als eine Web- Watch können zwei oder mehrere TrägerInnen auch ihre Herzschläge austauschen und so ihre Gefühlszustände den anderen Personen mit- teilen, so dass z. B. Liebende nie mehr einen Herzschlag vermissen werden. Aber auch die Übertragung des Gesundheitszustandes zur Unterstützung der medizinischen Versorgung, wie sie hauptsächlich in der V.R.China größtenteils durch das Puls nehmen praktiziert wird, ist so über beliebige Distanzen möglich, was im Allgemeinen auch für das Militär und viele andere Dienste und Aufgaben als großer Vorteil er- kannt wurde.
The HeartWatch is a Sm@rtWatch, that enables with its integrated heart rate and heart rhythm computer interface on the basis of a percutaneous/transcutaneous photosensor the measuring and monit- oring of heart activities. It is extended by the FitWatch and the Vi- taWatch. As a WebWatch two or more wearers can share their heart rates and in this way communicate their emotional states to the other persons, so that for example lovers' hearts will never miss a beat again. But also the transmission of the state of health for the support of the health care, as it is practiced particularly in the P.R. China to a great extent by taking the pulse, is possible over any di- stances, which in general has been recognized as a great advantage for the military and also many other services and tasks of a society as well.

 

   
VitaWatch™ 200x
Die VitaWatch (kurz einfach Vita) erweitert die HeartWatch mit mehr Sensoren für die Kontrolle weiterer Vitalparameter ihrer Trägerin/ihres Trägers neben der Puls- und Herzfrequenz, die durch die optionale Integration mit unserem multimedialen Stethoskop verbessert werden kann, wie zum Beispiel Haut- und Körperkerntemperatur, Blutdruck, Atemfrequenz, Sauerstoffsättigung des Hämoglobins durch die Puls- oximetrie, insbesondere durch die Messmethode der peripheren Sau- erstoffsättigung (sO2) mit dem perkutanen/transkutanen Lichtsensor der HeartWatch, und sogar durch die elektrokardiogrammsynchroni- sierten Pulsoximetrie mit der zugehörigen Eigenschaft der FitWatch, die die HeartWatch erweitert, aber auch für die Erfassung von Ge- fühlszuständen wie etwa Freude, Trauer und Stress durch die Nut- zung der Verbindung von der Ontologischen Systemarchitektur und den verbundenen Betriebssystemplatformen OntoLix und OntoLinux zu der Emotionenmaschinenarchitektur.
The VitaWatch (short simply Vita) extends the HeartWatch with more sensors for monitoring additional vital parameters of its wearer besides the pulse and heart rate, which can be improved by the opt- ional integration with our multimedia stethoscope, like for example skin and core body temperature, blood pressure, respiratory rate, oxygen saturation of hemoglobin by the pulse oximetry, specifically by the measurement method of the Saturation of peripheral Oxygen (SpO2) with the percutaneous/transcutaneous photosensor of the HeartWatch, and even by the electrocardiography-synchronized pulse oximetry with the related feature of the FitWatch, which ext- ends the HeartWatch, but also for the acquisition of emotional states, like e.g. pleasure, sorrow, and stress by using the connect- ion of the Ontologic System (OS) architecture and the related operating system platforms OntoLix and OntoLinux to the Emotion Machine Architecture.

 

   
FitWatch™ 1.March.2012
Die FitWatch ist ein Fitness-Kontrollsystem in Form einer Sm@rt- Watch, das die HeartWatch und die VitaWatch erweitert indem sie die Körperbelastungen feststellt und den Kalorienverbrauch sowie die Fitness misst, brechnet und leitet. Dazu wird unter anderem die Pro- zedur des Elektrokardiogramms (EKG) angewendet.
The FitWatch is a fitness monitoring system in form of a Sm@rt- Watch that extends the HeartWatch and the VitaWatch by observing the body stresses and measuring, calculating and managing the ca- lorie consumption as well as fitness. For this, the ElectroCardioGra- phy (ECG) procedure is applied among others.

 

   
MeterWatch™ 200x
Die verschiedenen Versionen der MeterWatch besitzen besondere Sensoren für die Messung von wissenschaftlichen Werten aus den Bereichen der Physik, Chemie und Biologie.
The different versions of the MeterWatch feature special sensors for measuring scientific values of the fields physics, chemistry and biology.

 

   
GPSWatch™ 200x
Die GPSWatch besitzt unseren GPSkern mit MultiGPS-Technologie und kann als eigenständige Navigationshilfe als auch als ein Funktionsmo- dul für andere sm@rte Uhren genutzt werden, die zu mehr Funktio- nalitäten führt. So kann zum Beispiel die FitWatch Entfernungen be- rechnen und die Ergebnisse in die Fitness-Kontrolle und die Erstellung von einem Trainingsplan oder einem Ernährungsplan einfließen lassen. Ein weiteres Beispiel ist die Kombination mit dem Netzwerkmodul der WebWatch oder einem Mobiltelefon, sodass zusätzliche Quellen für die Positionsbestimmung genutzt werden können.
The GPSWatch features our GPSCore with the MultiGPS technology and can be used alone as a navigation aid. In this way, the GPS module can be connected with the other modules of the related mobile device system, which leads to more functionalities. For ex- ample, the FitWatch can calculate distances and let these results influence the fitness monitoring and the development of a workout plan or a nutritional protocol. A further example is the combination with the network module of the WebWatch or a mobile/ cell phone, so that additional sources for the determination of the position can be used.

 

   
ParioWatch™
Die besondere Variante ParioWatch ist die Kombination von Parionik mit unserem SmartWatch-System™.
The particular variant ParioWatch is the combination of parionics with our SmartWatche System™.

 

   
Head-Mounted Display 2.0 6.July.2007
Unsere Head-Mounted Display==am Kopf befestigte Anzeige 2.0 (HMD II/HMD 2.0) bezeichnet die Integration von Head-Mounted Displays der ersten Generation (HMD I/HMD 1.0), die auf echten und virtuellen Bildschirmen basieren, die Bilder indirekt durch eine Optik oder direkt in ein oder beide Augen seiner Benutzerin/seines Benut- zers projizieren, mit mobilen Gesichtsabtastungstechniken, wie z. B. der Augen- und der Blickbewegungsregistrierung/-verfolgung sowie die Erfassung von Kopf-, Augenlid-, Hand-, Finger- und anderen Be- wegungen von Körperteilen sowie von Veränderungen der Pupillen- größe, wie sie unsere MobileKinetic-Technologie bietet, für etwa die Verbesserung der Bilddarstellung durch Bewegungskompensation/ -ausgleich, die Steuerung des Gerätes, die anwendungsspezifischen Darstellungsveränderungen, wie z. B. beim Zoomen, als auch die Op- timierung der Anwendung der angereicherten Realität==Augmented Reality (AR). Unsere am Kopf befestigten Versionen der laserbasier- ten Virtual Image Displays==virtuellen Ausgabeanzeigen der zweiten Generation (VIDs II/VIDs 2.0) und der Virtual Retina/Retinal Displays ==virtuellen Retinadisplays der zweiten Generation (VRDs II/ VRDs 2.0) sind HMDs II/HMDs 2.0.
Our Head-Mounted Display 2.0 (HMD II/HMD 2.0) denotes the inte- gration of Head-Mounted Displays of the first generation (HMD I/HMD 1.0), that are based on real and virtual image displays, which project images indirectly through an optics or directly into an eye or both eyes of its user, with mobile facial scanning techniques, like e.g. the eye tracking and the gaze tracking, and also the recognition of the head, eyelid, hand, finger, and other movements of bodyparts, and also of changes of the pupil size, as they are provided with our Mob- ileKinetic technology, for enhancing the image displaying by motion compensation, controlling the device and the applications, changing the images application-specifically, like e.g. while zooming, and opt- imizing the application of the Augmented Reality (AR) technique for instance. Our head-mounted, laser-based versions of the Virtual Image Displays of the second generation (VIDs II/VIDs 2.0) and of the Virtual Retina/Retinal Displays of the second generation (VRDs II/ VRDs 2.0) are HMDs II/HMDs 2.0.

 

   
Head-Mounted Display 3.0 28.June.2012 and 7.November.2012
Unsere Head-Mounted Display==am Kopf befestigte Anzeige 3.0 (HMD III/HMD 3.0) bezeichnet die Integration von Head-Mounted Displays der ersten Generation (HMD I/HMD 1.0) und der zweiten Generation (HMD II/HMD 2.0) mit unserer Multiwave-Konzept, die auf unseren Wellenfeldtechnologien und unserem Paradigma des Wellenfeldrechnens basiert.
Our Head-Mounted Display 3.0 (HMD III/HMD 3.0) is the integration of Head-Mounted Displays of the first generation (HMD I/HMD 1.0) and the second generation (HMD II/HMD 2.0), with our Multiwave concept, which is based on our wave-field technologies and our wave-field computing paradima.

 

   
     
EyeTap 2.0 8.November.2010
Unsere Technologie EyeTap==Augenanzapfung 2.0 bezeichnet die In- tegration von Head-Mounted Displays 2.0 (HMDs II/HMDs 2.0) mit ei- ner oder mehreren Kameras, die die aufgenommenen Bilder in Echt- zeit an ein oder mehrere Augen der Benutzerin/des Benutzers und an weitere Systemkomponenten für die weitere Verabeitung weiterlei- tet/-leiten. Im Allgemeinen können EyeTaps auf den mobilen Versio- nen von Virtual Image Displays==virtuellen Ausgabeanzeigen (VIDs/ VIDs), Virtuellen RetinaDisplays (VRDs) und Retina Projektoren, ins- besondere unseren Retinaskopen, basieren.
Our EyeTap 2.0 denotes the integration of Head-Mounted Displays 2.0 (HMDs II/HMDs 2.0) with one or more cameras, which pass the recorded images in realtime through to one or more eyes of its user, and to further system components for further processing. In general, EyeTaps can be based on the mobile versions of Virtual Image Dis- plays (VIDs/VIDs), Virtual Retina/Retinal Displays (VRDs), and Retina Projectors, specifically our Retinascopes.

 

   
EyeTap 3.0 28.June.2012 and 7.November.2012
Unsere Technologie EyeTap==Augenanzapfung 3.0 bezeichnet die In- tegartion unserer EyeTap-Plattformen und den Head-Mounted Dis- plays 3.0 (HMDs III/HMDs 3.0) mit einer oder mehreren Lichtfeldka- meras oder/und Strahlenfeldkameras.
Our EyeTap 3.0 denotes the integration of our EyeTap platforms and the Head-Mounted Displays 3.0 (HMDs III/HMDs 3.0) with one or more light-field cameras or/and ray-field cameras.

 

   
EyeTap 4.0 10.April.2012
Unsere EyeTap 4.0-Technologie ist eine EyeTap==Augenanzapfung die unsere EyeTap-Plattformen mit kleinen Aktuatoren/Servomoto- ren oder ganzen Servoantrieben erweitert, um die Kameraoptik zu steuern und die eine oder mehreren Kameras frei wie z. B. ein Cha- meleon zu bewegen/schwenken.
Our EyeTap 4.0 technology is an eyetap that extends our EyeTap platforms with little actuators/servomotors or whole servomechan- isms for controlling the camera optics and freely moving/swiveling the one or more cameras, like e.g. a chameleon.

 

   
Sm@rtEyewear™ 199x and 200x
Mit dem Label Sm@rtEyewear bezeichnen wir unsere Serie von smar- ten Head-Mounted Displays==am Kopf getragenen Bildschirmen der ersten (HMD I) und zweiten Generation (HMD II), EyeTaps==Augen- anzapfungen der ersten, zweiten (EyeTap II) sowie dritten Genera- tion (EyeTap III), Brillen und Kontaktlinsen mit unterschiedlichen Kon- struktionen und Eigenschaften. Zu unseren Innovationen im Bereich der Sm@rtEyewear zählen unter anderem die Möglichkeiten die Mo- delle mit den Funktionen aller anderen Modelle, unseren Ontoskopen sowie mit unseren Lösungen (O)LED DLP Image Display 2.0, eVSG, eP, WREL/ WRPL@Home und PowerTable zu kombinieren. Zum Beispiel können Varianten mit einem Retinaprojektor oder dem Retinaskop 2.0 konstruiert werden, die dazu einfach an einem Tragegestell befestigt werden und ein optionales Prisma besitzen können, das die projezier- ten Bilder in ein Auge der Benutzerin/des Benutzers umleitet, sodass das Gerät auch als eine Art Augenanzapfung 2.0 nutzbar ist. Smart- Eyewear kann auch mit anderen Geräten, wie z. B. smarten Mobilte- lefonen und Spielkonsolen genutzt werden. Als Materialien können unter anderem auch unser dehnbarer Akkumulator, dehnbarer Solar- kollektor, Akkugewebe und Solargewebe verwendet werden, insbe- sondere für die Kopfbänder von Sport- und Schutzbrillen.
With the label Sm@rtEyewear we denote our series of smart Head- Mounted Displays (HMDs) of the first (HMD I) and second (HMD II) generation, EyeTaps of the first, second (EyeTap II) and third gener- ation (EyeTap III), glasses/goggles and contact lenses with different constructions and features. Our innovations in the field of Sm@rt- Eyewear comprise the possibilities to combine the models with the functions of all other models, our Ontoscopes, as well as with our solutions (O)LED DLP Image Display 2.0 technology, eLSG, eP, Pow- erTable, and WREL/WRPL@home among others. For example, variants can be constructed with a Retinaprojector or the Retinascope 2.0, that are simply fixed to a wearable mount and can have an optional prism, which redirects the projected images into a user's eye, so that the device is utilizable as somekind of an EyeTap 2.0 as well. SmartEyewear can also be used with other devices, like e.g. smart- phones, smart watches, and game consoles. As materials our Stretch Accumulator, Stretch Solar Collector, Accu Fabrics, and Solar Fabrics can be used among others, specifically for the headbands of sports and protection goggles.

 

   
SolarEyewear™ 15.August.2013
Die SolarEyewear bestizt Komponenten, die elektrischen Strom aus Sonnenlicht generieren. Diese Komponenten können zum Beispiel ein Solarmodul sein, das in Abhängigkeit von der jeweiligen Variante in dem Rahmen, den Bügeln oder/und auch den Scheiben integriert ist sowie in Bändern von Sportbrillen, die sogar ganz aus unserem Solar- gewebe oder/und unserem dehnbaren Solarkollektor bestehen.
The SolarEyewear has components, which generate electric power out of sunlight. Dependent on the respective variant these compon- ents can be for example a solar panel integrated into the frame, the temples, or/and also in the panes, as well as even in bands of sports goggles, which are made of our Solar Fabrics or/and our Stretch Solar Collector.

 

   
WrapEyewear™ 25.February.2012
Die WrapEyewear zum Beispiel wickelt sich wie die WrapWear von alleine um ein Körperteil, wenn man es drumherum schlägt. In diesem Fall ist das Körperteil der Kopf.
The WrapEyewear wrapes around a body part all alone, for example, if slapped around it. In this case the body part is the head.

 

   
3D Eyewear™ 199x
Die 3D-Eyewear-Serie basiert auf eine am Kopf befestigte Anzeige der ersten Generation==Head-Mounted Display I (HMD I/HMD 1.0) oder unsere am Kopf befestigte Anzeige II==Head-Mounted Display II (HMD II/HMD 2.0), die unsere MobileKinetic-Technologie für die Ab- tastung des Gesichtes der Benutzerin/des Benutzers als Teil der Benutzerschnittstelle anwendet und unsere mobile, laserbasierte, virtuelle Bildanzeige der zweiten Generation==Virtual Image Display II (VRD II/ VRD 2.0) einschließt. Die HMDs besitzen zwei 2D-Bildschir- me, um Inhalte zwei- und dreidimensional darzustellen oder/und die Technik der sogenannten Angereicherten Realität==Augmented Reality (AR) anzuwenden.
The 3D Eyewear series is based on a Head-Mounted Display of the first generation (HMD I/HMD 1.0) or our Head-Mounted Display II (HMD II/HMD 2.0), which applies our MobileKinetic technology for the scanning of the face of the user as part of the User Interface (UI), and also includes our mobile, laser-based, Virtual Image Display of the second generation (VRD II/VRD 2.0). The HMDs feature two 2D- displays to display contents two- and three-dimensionally, or/and to use the technique of the so-called Augmented Reality (AR).

 

   
BeamEyewear™ 199x
Die BeamEyewear besitzt einen oder mehrere zusätzliche NanoPro- jektoren, um Informationen auf den Körper der Benutzerin/des Be- nutzers oder auf beliebige Objekte zu projizieren, wie z. B. Zeit und Datumsangaben.
The BeamEyewear has one or more additional NanoProjectors for projecting informations on the body of its wearer or on any objects, like e.g. time and date.

 

   
ActiveEyewear™ 200x
Die ActiveEyewear besitzt unseren aktiven Schirm==Active Screen oder unsere aktive Anzeige==Active Display, die bi-, tri-, oder sogar tetradirektional funktionieren. Durch die Erweiterung mit der Kinetic- Eyewear wird sie zu einer speziellen Version der EyeTap 2.0.
The ActiveEyewear features our Active Screen or our Active Display, that functions bi, tri-, or even tetradirectionally. With the extension with the KineticEyewear it becomes a special version of the EyeTap 2.0.

 

   
CloakEyewear™ 1.July.2013
Die CloakEyewear wird aus dem gleichen Material wie unsere Cloak- Wear hergestellt und gibt einen total neuen Eindruck was eine Brille, eine Sehhilfe und ein Augenschutz sein kann. Weitere Grundmateri- alien können unser dehnbarer Akku, dehnbarer Solarkollektor, Akku- gewebe und Solargewebe, als auch zum Beispiel Spezialmaterialien gegen Hitze und Kälte, helles Licht und Strahlung, chemische Sub- stanzen und mechanische Beanspruchung sein.
The CloakEyewear is made out of the same material like our Cloak- Wear and gives a totally new impression of what an eyewear, a visual aid, and an eye protection could be. Further basic materials can be our Accu Fabrics, Solar Fabrics, Stretch Accu, and Stretch Solar Collector, as well as special materials against heat and cold, bright light and radiation, chemical substances, and mechanical stress for example.

 

   
MultiEyewear™ 199x
Die MultiEyewear führt die Konzepte einer Brille mit 1 oder 2 Bild- schirmen und Multimedia zusammen, inklusive Text, Graphiken, Ani- mationen, Musik, Bilder, Videos und so weiter.
The MultiEyewear brings together the concepts of a goggle/glasses with 1 or 2 displays and multimedia, inclusive text, graphics, animat- ions, music, pictures, videos, and so on.

 

   
MarkupEyewear™ 199x
Die MarkupEyewear nutzt normale Auszeichnungssprachen (wie etwa HyperText Markup Language (HTML), Extendable Markup Language (XML) und XML HTML (XHTML)) und deren Konzepte, vor allem den sogenannten Canvas-Tag für das Zeichnen von 2D- und 3D-Graphi- ken, um Informationen und Inhalte darzustellen, zum Beispiel als eine MultiEyewear oder eine WebEyewear.
The MarkupEyewear uses standard markup languages (e.g. Hyper- Text Markup Language (HTML), Extendable Markup Language (XML) and XML HTML (XHTML)) and their concepts, specifically the so-call- ed tag canvas for the drawing of 2D and 3D graphics, to display informations and contents, as a MultiEyewear or a WebEyewear for example.

 

   
WebEyewear™ 199x
Die WebEyewear nutzt Netzwerktechnologien, insbesondere kabellose Technologien, wie sie zum Beispiel auch von Mobiltelefonen genutzt werden, inklusive Bluetooth, Full Wi-Fi und MultiWLAN, und Techno- logien, die das Internetzprotokoll verwenden.
The WebEyewear uses network technologies, especially wireless technologies, like they were utilized by mobile/cell phones for ex- ample, inclusive Bluetooth, Full Wi-Fi and MultiWLAN, and technolo- gies that apply the internet protocol.

 

   
CloudEyewear™ 5.April.2012
Die CloudEyewear ist eine WebEyewear, die die Konzepte der smar- ten Brillen und dem Cloud-Computing zusammenführt.
The CloudEyewear is a WebEyewear that brings together the con- cepts of the smart goggles/glasses and the cloud computing.

 

   
TagEyewear™ 5.April.2012
Die TagEyewear erkennt und stellt lineare/eindimensionale Strich- codes, Matrixcodes/zweidimensionale (Strich)Codes/2D-Codes, wie den Quick-Response-Code (QR Code), den Data-Matrix-Code und den Aztec-Code, Punktcodes, Komposit-Codes sowie andere Kodie- rungen dar. Besondere Versionen können sogar Etiketten der Funk- technologien Radio-Frequency IDentification (RFID), inklusive Near Field Communication (NFC), und andere emulieren, aber auch durch eingebaute elektronische Bauelemente beliebige Codes und Etiketten erfassen.
The TagEyewear recognizes and displays one-dimensional/linear bar- codes, two-dimensional codes/2D codes/matrix codes, like the Quick Response code (QR Code), Data Matrix code and Aztec code, com- posite-codes, as well as other codes. Special versions can emulate tags of the radio technologies Radio-Frequency IDentification (RFID), inclusive Near Field Communication (NFC), and others, but also re- cord codes and tag with built-in electronic elements for reading and receiving.

 

   
VibeEyewear™ 5.April.2012
Die VibeEyewear ist eine smarte Brille/Sm@rtEyewear, die vibrieren kann und dabei zum Beispiel den Morsekode verwendet um die Zeit anzugeben und andere Informationen zu übertragen.
The VibeEyewear is a SmartEyewear that can vibrate and thereby use for example the morse code to tell the time and to transfer other informations.

 

   
HapticEyewear™ 5.April.2012
Die HapticEyewear besitzt ein haptisches Tragegestell.
The HapticEyewear features a hapticle wearable mount.

 

   
TouchEyewear™ 5.April.2012
Die TouchEyewear ist eine smarte Brille/Sm@rtEyewear, die 1 oder 2 Bildschirme und einem speziellen Rahmen beziehungsweise Tragege- stell mit der Funktionalität eine Berührung==Touch oder eine Mehrfin- gerberührung==Multi-Touch zu erkennen.
The TouchEyewear is a Sm@rtEyewear that has 1 or 2 screens, and a special frame respectively wearable mount with the functionality to recognize a touch or a multi-touch.

 

   
KineticEyewear™ 5.April.2012
Die KineticEyewear ist eine smarte Brille/Sm@rtEyewear, die unsere MobileKinetic- und MultiKinetic-Technologien verwendet.
The KineticEyewear is a Sm@rtEyewear, which applies our Mobile- Kinetic and MultiKinetic technologies.

 

   
WaveEyewear™ 25.February.2012
Die WaveEyewear ist eine smarte Brille/Sm@rtEyewear, die unser Wellenfeldrechnenparadigma und unsere Wavicle-, TouchWave- oder/ und WaveTouch-Technologien verwendet.
The WaveEyewear is a Sm@rtEyewear, which applies our wave-field computing paradigm, Wavicle, TouchWave or/and WaveTouch tech- nologies.

 

   
MuEyewear™/μEyewear™ 5.April.2012
Die μEyewear ist eine smarte Brille mit einem Rahmen, der eine inte- grierte Muskel-Computer-Schnittstelle hat, um Bewegungen des Gesichts durch das Messen ihrer Muskelaktivitäten zuerkannen. Die Lösung ermöglicht den berührungslosen Gebrauch einer smarten Brille.
The μEyewear is a smart goggle/glasses with a frame, that has an integarted muscle-computer interface to recognize facial movements by monitoring their muscle activities. The solution makes the touch- free using of a smarteyewear possible.

 

   
HeartEyewear™/Eyewear™ 5.April.2012
Die HeartEyewear ist eine smarte Brille/Sm@rtEyewear, die durch ihre integrierte Herzfrequenz- und Herzrhythmus-Computer-Schnittstelle auf der Basis eines perkutanen/transkutanen Lichtsensors das Mes- sen und Beobachten von Herzaktivitäten erlaubt. Sie wird durch die FitEyewear und VitaEyewear erweitert. Als eine WebEyewear können zwei oder mehrere TrägerInnen ihre Herzschläge auch austauschen und so ihre Gefühlszustände den anderen Personen mitteilen, so dass z. B. Liebende nie mehr einen Herzschlag vermissen werden. Aber auch die Übertragung des Gesundheitszustandes zur Unterstützung der medizinischen Versorgung, wie sie hauptsächlich in der V.R.China größtenteils durch das Puls nehmen praktiziert wird, ist über beliebige Distanzen möglich, was im Allgemeinen auch für das Militär sowie vie- le andere Dienste und Aufgaben als großer Vorteil erkannt wurde.
The HeartEyewear is a Sm@rtEyewear, that enables with its inte- grated heart rate and heart rhythm computer interface on the basis of a percutaneous/transcutaneous photosensor the measuring and monitoring of heart activities. It is extended by the FitEyewear and the VitaEyewear. As a WebEyewear two or more wearers can also share their heart rates and in this way communicate their emotional states to the other persons, so that e.g. lovers' hearts will never miss a beat again. But also the transmission of the state of health for the support of the health care, as it is practiced particularly in the P.R.China to a great extent by taking the pulse, is possible over any distances, which in general has been recognized as a great ad- vantage for the military and also many other services and tasks of a society as well.

 

   
VitaEyewear™ 5.April.2012
Die VitaEyewear erweitert die HeartEyewear mit mehr Sensoren für die Kontrolle weiterer Vitalparameter als auch anderer Parameter ihrer Trägerin/ihres Trägers. Dazu nutzen wir unseren Vitakern.
The VitaEyewear extends the HeartEyewear with more sensors for monitoring additional vital parameters as well as other parameters of its wearer. For this, we utilize our VitaCore.

 

   
FitEyewear™ 5.April.2012
Die FitEyewear ist ein Fitness-Kontrollsystem in Form einer Sm@rt- Eyewear, das die HeartEyewear und die VitaEyewear erweitert indem sie die Körperbelastungen feststellt und den Kalorienverbrauch sowie die Fitness misst, brechnet und leitet. Dazu wird unter anderem die Prozedur des Elektrokardiogramms (EKG) angewendet.
The FitEyewear is a fitness monitoring system in form of a Sm@rt- Eyewear that extends the HeartEyewear and the VitaEyewear by observing the body stresses and measuring, calculating and manag- ing the calorie consumption as well as fitness. For this, the Electro- CardioGraphy (ECG) procedure is applied among others.

 

   
MeterEyewear™ 5.April.2012
Die verschiedenen Versionen der MeterEyewear besitzen besondere Sensoren für die Messung von wissenschaftlichen Werten aus den Bereichen der Physik, Chemie und Biologie.
The different versions of the MeterEyewear feature special sensors for measuring scientific values of the fields physics, chemistry and biolo- gy.

 

   
GPSEyewear™ 200x
Die GPSEyewear besitzt unseren GPSkern mit MultiGPS-Technologie und kann als eigenständige Navigationshilfe als auch als ein Funk- tionsmodul für andere sm@rte Brillen genutzt werden, die zu mehr Funktionalitäten führt. So kann zum Beispiel die FitEyewear Entfer- nungen berechnen und die Ergebnisse in die Fitness-Kontrolle und die Erstellung von einem Trainingsplan oder einem Ernährungsplan ein- fließen lassen. Ein weiteres Beispiel ist die Kombination mit dem Netz- werkmodul der WebEyewear oder einem Mobiltelefon, sodass zusätz- liche Quellen für die Positionsbestimmung genutzt werden können.
The GPSEyewear features our GPSCore with the MultiGPS technology and can be used alone as a navigation aid. In this way, the GPS module can be connected with the other modules of the related mobile device system, which leads to more functionalities. For ex- ample, the FitEyewear can calculate distances and let these results influence the fitness monitoring and the development of a workout plan or a nutritional protocol. A further example is the combination with the network module of the WebEyewear or a mobile/cell phone, so that additional sources for the determination of the position can be used.

 

   
ParioEyewear™
Die besondere Variante ParioEyewear ist die Kombination von Parionik mit unserem SmartEyewear-System™.
The particular variant ParioEyewear is the combination of parionics with our SmartEyewear system.

 

   
Kinetic Lens 3.July.2013
Die Kinetiklinse ist eine elektormagnetische Linse, die eine Mobile Kinetiktechnologie integriert hat und weitere Eigenschaften besitzt, wie zum Beispiel einen Teleskopmechanismus. Eine Kinetische Linse oder kinetisches Objektiv kann mit unseren anderen Technologien More Eyes==Mehraugen, Head-Mounted Display==am Kopf befestigte Anzeige, EyeTap==Augenanzapfung, SmartEyewear und elektroni- sches Auge/ Cyber Eye==Cyber-Auge sowie deren Anwendungen kombiniert oder sogar integriert werden. Anwendung sind Objektive von mobilen Geräten, wie einer Kamera, und sogar Kontaktlinsen ohne oder mit luftdurchlässiger Eigenschaft. Idealerweise kann es mit dem Paradigma der Angereichten Realität (AR) kombiniert werden.
The Kinetic Lens is an electromagnetical lens, that has an integrated MobileKinetic technology and further properties, like for example a telescopic mechansim. Applications are lenses of mobile devices like a camera and even contact lenses without and with gas-permeable property. A Kinetic Lens can be combined or integrated with our other technologies More Eyes, Head-Mounted Displays, EyeTap, SmartEyewear, and electronic eye/Cyber Eye, and also their applic- ations. Ideally, it could be combined with the paradigm of Augmented Reality (AR).

 

   
More Eyes
Unsere More Eyes==Mehraugen-Technologie fügt mehrere einzelne einfache oder ganze Facetten aus Foto- oder/und Videokameras zu Head-Mounted Displays, EyeTaps==Augenanzapfungen, Geräten un- seres SmartEyewear-Systems und unseren elektronischen Augen/ Cyber Eyes==Cyber-Augen hinzu. Da die einzelnen optischen Kompo- nenten nicht nur die sichtbaren Lichtwellen, sondern auch eine we- sentlich größer Bandbreite des elektromagnetischen Spektrums (Funkwellen, infrarotes und ultraviolettes Licht) erfassen können, ergeben sich viele interessante Anwendungsmöglichkeiten. Außerdem ist es z. B. möglich, dass die/der BesitzerIn mit einem dritten Auge oder einem dritten Cyber-Auge sehen kann, was hinter ihr/ihm (als Favorit von Soldaten der Britischen Armee gewählt) oder an einem entfernten Ort geschieht.
Our More Eyes technology adds multiple single simple or whole facets /compounds of photo or/and video cameras to Head-Mounted Dis- plays, EyeTaps, devices of our SmartEyewear system, and our elec- tronic eyes/Cyber Eyes. Because the single optical components are not able to sense the visible light only, but also a considerably larger range of the electromagnetic spectrum (radio waves, infrared and ultraviolet light), many interesting possibile applications arise. Fur- thermore, it is possible for example, that the owner can see with a third eye or a third Cyber Eye what is happening behind her/him (voted as a favourite by soldiers of the British Forces), or at a dist- ant place.

 

   
Headphone 2.0 11.April.2010
Unser Kopfhörer 2.0 bezeichnet die Integration von Kopfhörern der ersten Generation, die auf Standard- und virtuellen Beschallungsan- lagen basieren, mit mobilen Körperabtastungstechniken, wie z. B. der Kopf- und der Oberkörperbewegungsregistrierung/-verfolgung, oder der mobilen Gesichtsabtastungstechniken, wie z. B. der Augen- und der Blickbewegungsregistrierung/-verfolgung, wie sie unsere MobileKinetic-Technologie bietet, für die Verbesserung der Schallaufnahme und -wiedergabe durch Bewegungskompensation/ -ausgleich.
Our Headphone 2.0 is the integration of headphones of the first gen- eration, that are based on standard and virtual sound systems, with mobile body scanning techniques, like e.g. the head tracking and the torso tracking, or mobile facial scanning techniques, like e.g. the eye tracking and the gaze tracking, as our MobileKinetic technology provides, for enhancing the sound recording and replay by motion compensation.

 

   
Headphone 3.0 28.June.2012 and 7.November.2012
Unser Kopfhörer 3.0 bezeichnet die Integration von Kopfhörern der ersten Generation und der zweiten Generation (Headphone 2.0) mit unserem Multiwave-Konzept, die auf unseren Wellenfeldtechnologien und unserem Paradigma des Wellenfeldrechnens basiert.
Our Headphone 3.0 is the integration of headphones of the first gen- eration and the second generation (Headphone 2.0) with our Multiwave concept, which is based on our wave-field technologies and our wave-field computing paradim.

 

   
     
EarTap 1.0 11.April.2012
Unsere Technologie EarTap==Ohrenanzapfung bezeichnet die Inte- gration von Kopfhörern mit einem oder mehreren Mikrofonen, die die aufgenommenen Geräusche in Echtzeit an ein oder mehrere Ohren der Benutzerin/des Benutzers und an weitere Systemkomponenten für die weitere Verabeitung weiterleitet/-leiten. Im Allgemeinen kön- nen EarTaps auf den mobilen Versionen von Virtual Sound Systems= =virtuellen Beschallungsanlagen (VSSs) und Virtual HeadPhones= =virtuellen Kopfhörern (VHPs) basieren.
Our EarTap technology denotes the integration of headphones with one or more microphones, which pass the recorded sounds in real- time through to one or more ears of its user, and to further system components for further processing. In general, EarTaps can be based on the mobile versions of Virtual Sound Systems (VSSs) and Virtual HeadPhones (VHPs).

 

   
EarTap 2.0 11.April.2012
Unsere Technologie EarTap==Augenanzapfung 2.0 bezeichnet die In- tegration von den Headphones==Kopfhörern 2.0 mit einem oder mehreren Mikrofonen, die die aufgenommenen Geräusche in Echtzeit an ein oder mehrere Ohren der Benutzerin/des Benutzers und an weitere Systemkomponenten für die weitere Verabeitung weiterleitet/-leiten.
Our EyeTap 2.0 denotes the integration of the headphones 2.0 with one or more microphones, which pass the recorded sounds in realtime through to one or more ears of its user, and to further system components for further processing.

 

   
EarTap 3.0 28.June.2012 and 7.November.2012
Unsere Technologie EarTap==Augenanzapfung 3.0 bezeichnet die In- tegration von den EarTap-Plattformen und den Headphones==Kopfhörern 3.0 mit einem oder mehreren Schallfeldmikrofonen oder/und Wellenfeldmikrophonen.
Our EyeTap 2.0 denotes the integration of the EarTap platforms and the headphones 3.0 with one or more sound-field microphones or/and wave-field microphones.

 

   
EarTap 4.0 11.April.2012
Unsere EarTap 4.0-Technologie ist eine EarTap==Ohrenanzapfung, die unsere EarTap-Plattformen mit kleinen Aktuatoren/Servomotoren oder ganzen Servoantrieben erweitert, um die Mikrofon- und Laut- sprechermembrane zu steuern und das eine oder mehrere Mikrofone frei wie z. B. viele Huftiere/Ungulate zu bewegen/schwenken.
Our EarTap 4.0 technology is an eyetap that extends our EarTap platforms with little actuators/servomotors or whole servomeachnisms for controlling the microphone and headphone membranes, and freely moving/swiveling the one or more microphones, like e.g. many ungul- ates.

 

   
Sm@rtEarwear™
Mit dem Label Sm@rtEarwear bezeichnen wir unsere Serie von smar- ten Kopfhörern der ersten und zweiten (Kopfhörer 2.0) Generation und EarTaps==Ohrenanzapfungen der ersten (EarTap I), zweiten (EarTap II) sowie dritten Generation (EarTap III) mit unterschiedli- chen Konstruktionen und Eigenschaften. Die Sm@rtEarware-Modelle können mit den Funktionen aller anderen Modelle sowie als Weltneu- heit mit unseren Lösungen WREL/WRPL@Home und PowerTable kom- biniert werden. Als Materialien können unter anderem auch unser dehnbarer Akkumulator, dehnbarer Solarkollektor, Akkugewebe und Solargewebe verwendet werden, insbesondere für die Kopfhörerbügel und -bänder.
With the label Sm@rtEarwear we denote our series of headphones of the first and second (headphone 2.0) generation, and EarTaps of the first (EarTap I), second (EarTap II) and third generation (EarTap III) with different constructions and features. The Sm@rtEarware models can be combined with the functions of all other models, as well as a world premier with our solutions PowerTable and WREL/WRPL@home. As materials our Stretch Accumulator, Stretch Solar Collector, Accu Fabrics, and Solar Fabrics can be used among others, specifically for the headbands.

 

   
SolarEarwear™ 15.August.2013
Die SolarEarwear bestizt Komponenten, die elektrischen Strom aus Sonnenlicht generieren. Diese Komponenten können zum Beispiel ein Solarmodul sein, das im Rahmen/Bügel als auch im Kopfhörerbügeln integriert ist, die sogar ganz aus unserem Solargewebe oder/und unserem dehnbaren Solarkollektor bestehen.
The SolarEarwear has components, which generate electric power out of sunlight. These components can be a solar panel integrated into the housing or the frame, as well as even in headbands, which are even made of our Solar Fabrics or/and our Stretch Solar Collect- or.

 

   
WrapEarwear™ 25.February.2012
Die WrapEarwear zum Beispiel wickelt sich wie die WrapWear von alleine um ein Körperteil, wenn man es drumherum schlägt. In diesem Fall sind die Körperteile die Ohren und der Kopf.
The WrapEarwear for example wrapes around a body part all alone like the WrapWear, if slapped around it. In this case the body parts are the ears and the head.

 

   
3D Earwear™ 11.April.2012
Die 3D-Earwear-Serie basiert auf einem Kopfhörer der ersten Generation oder unserem Kopfhörer 2.0, der unsere MobileKinetic-Technologie für die Kopf- und Gesichtsabtastung anwendet, mit zwei normalen 2D-Lautsprecher, um Geräusche zwei- und dreidimensional wiederzugeben oder/und die sogenannte Augmented Reality==Angereicherte Realität zu nutzen. Sie kann auch mit anderen Geräten, wie z. B. Smartphones oder Spielkonsolen, genutzt werden.
The 3D Earwear series is based on a headphone of the first generation, or our headphone 2.0, which is based on our MobileKinetic technology for head and facial scanning, with two standard loudspeakers for replaying sounds two- and three-dimensionally, or/and to use the so-called Augmented Reality. It can also be used with other devices, like e.g. smartphones, or game consoles.

 

   
BeamEarwear™ 11.April.2012
Die BeamEarwear besitzt einen oder mehrere zusätzliche Projektoren, die auf unseren NanoProjektoren basieren, um Informationen, wie z. B. Zeit und Datumsangaben, auf den Körper der Benutzerin/des Be- nutzers oder auf beliebige Objekte zu projizieren.
The BeamEarwear has one or more additional beamers that are bas- ed on our NanoProjectors for projecting informations, like e.g. time and date, on the body of its wearer or on any objects.

 

   
SoundEarwear™ 20.August.2013
Die SoundEarwear wird aus einem Gewebe hergestellt, das schwin- gen kann, sodass es akustische Geräusche produziert und hierdurch einen total neuen Eindruck gibt, was eine Kopfhörer und Ohrenschüt- zer sein kann.
The SoundEarwear is made out of a fabrics that can swing, so that it produces acoustic sound and in this way gives a totally new im- pression what an earphone and earmuffs could be.

 

   
CloakEarwear™ 20.August.2013
Die CloakEarwear wird aus dem gleichen Materialien wie die Cloak- Wear und die SoundEarwear hergestellt und gibt hierdurch einen total neuen Eindruck, was eine Kopfhörer und Ohrenschützer sein kann. Weitere Grundmaterialien können unser dehnbarer Akku, dehnbarer Solarkollektor, Akkugewebe und Solargewebe, als auch zum Beispiel Spezialmaterialien gegen Hitze und Kälte, Strahlung, chemische Substanzen und mechanische Beanspruchung sein.
The CloakEarwear is made out of a same materials like the CloakWear and the SoundEarwear and in this way gives a totally new impression what an earphone and earmuffs could be. Further basic materials can be our Stretch Accu, Stretch Solar Collector, Solar Fabrics, and Accu Fabrics, as well as special materials against heat and cold, radiation, chemical substances, and mechanical stress for example.

 

   
MultiEarwear™ 11.April.2012
Die MultiEarwear führt die Konzepte eines Köpfhörers mit 1 oder 2 Lautsprechern und Multimedia zusammen.
The MultiEarwear brings together the concepts of a headphone with 1 or 2 displays and multimedia.

 

   
MarkupEarwear™ 11.April.2012
Die MarkupEarwear nutzt normale Auszeichnungssprachen (wie etwa HyperText Markup Language (HTML), Extendable Markup Language (XML) und XML HTML (XHTML)) und deren Konzepte, vor allem den sogenannten Canvas-Tag für das Wiedergeben von 2D- und 3D-Ge- räuschen, um Informationen und Inhalte darzustellen, zum Beispiel als eine MultiEarwear oder eine SmartWebEarwear™.
The MarkupEarwear uses standard markup languages (e.g. HyperText Markup Language (HTML), Extendable Markup Language (XML) and XML HTML (XHTML)) and their concepts, specifically the so-called tag canvas for the drawing of 2D and 3D sounds, for replaying in- formations and contents, for example as a MultiEarwear or a Smart- WebEarwear™.

 

   
WebEarwear™ 11.April.2012
Die WebEarwear nutzt Netzwerktechnologien, insbesondere kabellose Technologien, wie sie zum Beispiel auch von Mobiltelefonen genutzt werden, inklusive Bluetooth, Full Wi-Fi und MultiWLAN, und Techno- logien, die das Internetzprotokoll verwenden.
The WebEarwear uses network technologies, especially wireless te- chnologies, like they were utilized for example by mobile/cell phones, inclusive Bluetooth, Full Wi-Fi and MultiWLAN, and technologies that apply the internet protocol.

 

   
CloudEarwear™ 11.April.2012
Die CloudEarwear ist eine WebEarwear, die als Weltpremiere die Kon- zepte eines Kopfhörers und dem Cloud-Computing zusammenführt.
The CloudEarwear is a WebEarwear that brings together the con- cepts of a headphone and the cloud computing, as a world's first.

 

   
VibeEarwear™ 11.April.2012
Die VibeEarear ist ein smarter Kopfhörer/Sm@rtEarwear, der vibrieren kann und dabei zum Beispiel den Morsekode verwendet um die Zeit anzugeben.
The VibeEarwear is a SmartEarwear that can vibrate and thereby use for example the morse code for telling the time.

 

   
HapticEarwear™ 11.April.2012
Die HapticEarwear besitzt ein haptisches Tragegestell.
The HapticEarwear features a hapticle wearable mount.

 

   
TouchEarwear™ 11.April.2012
Die TouchEarwear ist ein Kopfhörer, der 1 oder 2 Lautsprecher und Touch- oder Multitouch-Fähigkeit durch einen speziellen Rahmen be- ziehungsweise spezielles Tragegestell besitzt.
The TouchEarwear is a headphone that has 1 or 2 loudspeakers, and touch or multi-touch functionality by a special frame or wearable mount.

 

   
KineticEarwear™ 11.April.2012
Die KineticEarwear ist ein smarter Kopfhörer/Sm@rtEarwear, der unsere MobileKinetic- und MultiKinetic-Technologien verwendet.
The KineticEarwear is a Sm@rtEarwear, which applies our Mobile- Kinetic and MultiKinetic technologies.

 

   
WaveEarwear™ 25.February.2012
Die WaveEaewear ist ein smarter Kopfhörer/Sm@rtEarwear, die unser Wellenfeldrechnenparadigma und unsere Wavicle-, TouchWave- oder/ und WaveTouch-Technologien verwendet.
The WaveEarwear is a Sm@rtEarwear, which applies our wave-field computing paradigm, Wavicle, TouchWave or/and WaveTouch technologies.

 

   
MuEarwear™/μEarwear™ 5.April.2012
Die μEarwear ist ein smarter Kopfhörer/Sm@rtEarwear mit einer inte- grierten Muskel-Computer-Schnittstelle. Auf diese Art und Weise können Bewegungen des Gesichts durch das Messen ihrer Muskel- aktivität erkannt werden. Die Lösung ermöglicht den berührungslosen Gebrauch des Kopfhörers als auch anderer Geräte.
The μEarwear is a Sm@rtEarwear with a frame that has an integrat- ed muscle-computer interface. By doing this, facial movements can be recognized by monitoring the activity of muscles. The solution makes the touch-free using of the earwear itself, but also of other devices possible.

 

   
HeartEarwear™/Earwear™ 5.April.2012
Die HeartEarwear ist ein smarter Kopfhörer/Sm@rtEarwear, der durch seine integrierte Herzfrequenz- und -rhythmus-Computer-Schnitt- stelle auf der Basis eines perkutanen/transkutanen Lichtsensors das Messen und Beobachten von Herzaktivitäten erlaubt. Er wird durch die FitEarwear und die VitaEarwear erweitert. Als eine WebEarwear können zwei oder mehrere TrägerInnen auch ihre Herzschläge aus- tauschen und so ihre Gefühlszustände den anderen Personen mittei- len, so dass z. B. Liebende nie mehr einen Herzschlag vermissen wer- den. Aber auch die Übertragung des Gesundheitszustandes zur Un- terstützung der medizinischen Versorgung, wie sie hauptsächlich in der V.R.China größtenteils durch das Puls nehmen praktiziert wird, ist über beliebige Distanzen möglich, was im Allgemeinen auch für das Militär sowie viele andere Dienste und Aufgaben als großer Vorteil erkannt wurde.
The HeartEarwear is a Sm@rtEarwear, that enables with its integrat- ed heart rate and heart rhythm computer interface on the basis of a percutaneous/transcutaneous photosensor the measuring and monit- oring of heart activities. It is extended by the FitEarwear and the VitaEarwear. As a WebEarwear two or more wearers can share their heart rates and in this way communicate their emotional states to the other persons, so that e.g. lovers' hearts will never miss a beat again. But also the transmission of the state of health for the supp- ort of the health care, as it is practiced particularly in the P.R. China to a great extent by taking the pulse, is possible over any distances, which in general has been recognized as a great advantage for the military and also many other services and tasks of a society as well.

 

   
VitaEarwear™ 5.April.2012
Die VitaEarwear erweitert die HeartEarwear mit mehr Sensoren für die Kontrolle weiterer Vitalparameter als auch anderer Parameter ihrer Trägerin/ihres Trägers. Dazu nutzen wir unseren VitaCore.
The VitaEarwear extends the HeartEarwear with more sensors for monitoring additional vital parameters and also other parameters of its wearer. For this, we utilize our VitaCore.

 

   
FitEarwear™ 5.April.2012
Die FitEarwear ist ein Fitness-Kontrollsystem in Form einer Sm@rt- Earwear, das die HeartEarwear und die VitaEarwear erweitert indem sie die Körperbelastungen feststellt und den Kalorienverbrauch sowie die Fitness misst, brechnet und leitet. Dazu wird unter anderem die Prozedur des Elektrokardiogramms (EKG) angewendet.
The FitEarwear is a fitness monitoring system in form of a Sm@rt- Earwear that extends the HeartEarwear and the VitaEarwear by observing the body stresses and measuring, calculating and ma- naging the calorie consumption as well as fitness. For this, the ElectroCardioGraphy (ECG) procedure is applied among others.

 

   
MeterEarwear™ 5.April.2012
Die verschiedenen Versionen der MeterEarwear besitzen besondere Sensoren für die Messung von wissenschaftlichen Werten aus den Bereichen der Physik, Chemie und Biologie.
The different versions of the MeterEarwear feature special sensors for measuring scientific values of the fields physics, chemistry and biology.

 

   
GPSEarwear™ 200x
Die GPSEarwear besitzt unseren GPSkern mit MultiGPS-Technologie und kann als eigenständige Navigationshilfe als auch als ein Funk- tionsmodul für andere sm@rte Brillen genutzt werden, die zu mehr Funktionalitäten führt. So kann zum Beispiel die FitEarwear Entfer- nungen berechnen und die Ergebnisse in die Fitness-Kontrolle und die Erstellung von einem Trainingsplan oder einem Ernährungsplan ein- fließen lassen. Ein weiteres Beispiel ist die Kombination mit dem Netz- werkmodul der WebEarwear oder einem Mobiltelefon, sodass zusätz- liche Quellen für die Positionsbestimmung genutzt werden können.
The GPSEarwear features our GPSCore with the MultiGPS technology and can be used alone as a navigation aid. In this way, the GPS module can be connected with the other modules of the related mobile device system, which leads to more functionalities. For ex- ample, the FitEarwear can calculate distances and let these results influence the fitness monitoring and the development of a workout plan or a nutritional protocol. A further example is the combination with the network module of the WebEarwear or a mobile/cell phone, so that additional sources for the determination of the position can be used.

 

   
ParioEarwear™
Die besondere Variante ParioEarwear ist die Kombination von Parionik mit unserem SmartEarwear-System™.
The particular variant ParioEarwear is the combination of parionics with our SmartEarwear system.

 

   
More Ears
Unsere More Ears==Mehrohren-Technologie fügt mehrere einzelne einfache oder ganze Facetten aus Mikrophonen oder/und Lautsprechern zu Kopfhörern, EarTaps==Ohranzapfungen, Geräten unseres SmartEyewear-Systems und unseren elektronische Ohren/Cyber Ears==Cyber-Ohren hinzu. Da die einzelnen optischen Komponenten nicht nur die hörbaren Schallwellen, sondern auch eine wesentlich größer Bandbreite des akustischen Spektrums (Infra- und Ultraschall) erfassen können, ergeben sich viele interessante Anwendungsmöglichkeiten. Außerdem ist es z. B. möglich, dass die/der BesitzerIn mit einem dritten Ohr oder einem dritten Cyber-Ohr hören kann, was hinter ihr/ihm oder an einem entfernten Ort geschieht.
Our More Ears technology adds multiple single simple or whole facets /compounds of microphones or/and loudspeakers to headphones, EarTaps, devices of our SmartEarwear system, and our electronic ears/Cyber Ears. Because the single acoustical components are not able to sense the audible sound only, but also a considerably larger range of the acoustic spectrum (infra- and ultrasound), many interesting possibile applications arise. Furthermore, it is possible for example, that the owner can hear with a third ear or a third Cyber Ear what is happening behind her/him, or at a distant place.

 

   
     
     
NoseTap 1.0 11.April.2012
Unsere Technologie NoseTap==Nasenanzapfung bezeichnet die Inte- gration von elektrischen Nasen mit einem oder mehreren Geruchssensoren, die die aufgenommenen Gerüche und chemischen Substanzen in Echtzeit an ein oder mehrere Nasen der Benutzerin/des Benutzers und an weitere Systemkomponenten für die weitere Verabeitung weiterleitet/-leiten. Im Allgemeinen kön- nen NoseTaps auf den mobilen Versionen von Virtual Smell Systems= =virtuellen Geruchssystemen (VSSs) und Virtual Smell Filters==virtuellen Geruchsfiltern basieren.
Our NoseTap technology denotes the integration of an olfactory device with one or more filters to Head-Mounted Olfactometers (HMOs) and Head-Mounted Gas Chromatographs (HMGCs), which pass the recorded smells and chemical substances in real-time through to one or more nosess of its user, and to further system components for further processing. In general, NoseTaps can be based on the mobile versions of Virtual Smell Systems (VSSs) and Virtual Smell Filters (VHPs).

 

   
NoseTap 2.0 11.April.2012
Unsere Technologie NoseTap==Nasenanzapfung 2.0 bezeichnet die Integration von Head-Mounted Olfactometers (HMOs), Head-Mounted Gassensors (HMGs) und Head-Mounted Biosensors (HMBs)==am Kopf befestigten Geruchs-, Gas und Biosensoren mit einem oder mehreren Sensoren und kinetischen Technologien für eine bessere Wahrnehmung von Gerüchen und Gasen, die die aufgenommenen Gerüsche in Echtzeit an ein oder mehrere Nasen der Benutzerin/des Benutzers und an weitere Systemkomponenten für die weitere Verabeitung weiterleitet/-leiten.
Our NoseTap 2.0 denotes the integration of Head-Mounted Olfactometers (HMOs), Head-Mounted Gassensors (HMGs) and Head-Mounted Biosensors (HMBs) with one or more detection systems/sensors, and kinetic technologies for a better sensing of odors and gases, which pass the recorded smells in realtime through to one or more noses of its user, and to further system components for further processing. kinetic technologies for a better sensing of odors and gases

 

   
NoseTap 3.0 11.April.2012
Unsere NoseTap 3.0-Technologie ist eine NoseTap==Nasenanzapfung die unsere NoseTap 2.0-Plattform mit kleinen Aktuatoren/Servomotoren oder ganzen Servoantrieben erweitert, um die Komponenten des Probezuführungssystems und die Sensorik zu steuern und das eine oder mehrere Probezuführungssysteme und Erkennungssysteme frei zu bewegen/schwenken.
Our NoseTap 3.0 technology is a nosetap that extends our NoseTap 2.0 platform with little actuators/servomotors or whole servomeachnisms for controlling the components of the sample delivery system and the sensors, and freely moving/swiveling the one or more sample delivery systems and detection systems.

 

   
ParioNosewear™ 12.August.2012
Die besondere Variante ParioNosewear ist die Kombination von Pa- rionik mit unserem SmartNosewear-System™.
The particular variant ParioNosewear is the combination of parionics with our SmartNosewear system.

 

   
Sm@rtWear™ 200x
Mit dem Label Sm@rtWear bezeichnen wir unsere Serie von intelli- genten und smarten Bekleidungen mit unterschiedlichen Konstruk- tionen und Eigenschaften. Die Sm@rtWear-Modelle können mit den Funktionen aller anderen Modelle kombiniert werden sowie auch mit unserer iArchitektur-Lösungen zusammenarbeiten. Als Grundmateri- alien können unter anderem auch unser dehnbarer Akkumulator, dehnbarer Solarkollektor, Akkugewebe und Solargewebe verwendet werden, die die Sm@rtWear mit Strom versorgen.
With the label Sm@rtWear we denote our series of intelligent and smart raiment/wear with different constructions and features. The Sm@rtWear models can be combined with the functions of all other models and also work together with our iArchitecture solutions. As basic materials our Stretch Accumulator, Stretch Solar Collector, Accu Fabrics, and Solar Fabrics can be used among others, that support the Sm@rtWear with electric power.

 

   
SolarWear™ 15.August.2013
Die SolarWear bestizt Komponenten, die elektrischen Strom aus Sonnenlicht generieren. Diese Komponenten können in Abhängigkeit von der jeweiligen Variante zum Beispiel ein Solarmodul, unser Solar- gewebe oder/und unser dehnbarer Solarkollektor sein, die in die Klei- dung integriert werden.
The SolarWear has components, which generate electric power out of sunlight. Dependent on the respective variant these components can be a solar panel, our Solar Fabrics, or/and our Stretch Solar Collector, which are integrated into the wear.

 

   
WREL/WRPL@Wear™ 2008
Das WREL/WRPL@Wear-Konzept verbindet intelligente Kleidung mit kabellosen Energieübertragungssystemen wie unserem Wireless Re- sonant Power Link (WRPL). Die Technologie kann entweder drahtge- bunden oder sogar kabellos auch für die Stromversorgung von ande- ren mobilen Geräten verwendet werden.
The WREL/WRPL@Wear concept connects intelligent raiment/wear with wireless power transmission systems like our Wireless Resonant Power Link (WRPL). The technology either wired or even wirelessly can also be used for the power supply of other mobile devices.

 

   
Wireless Wear™ 2008
Die kabellose Kleidung==Wireless-Wear ist eine Systemarchitektur, die die Nutzung von Kabeln für die Verbindung der Komponenten so weit wie möglich vermeidet, sodass letztendlich kein Bedarf an Ka- beln mehr gegeben ist. Für die Realisation werden kabellose Verbin- dungen angewendet, wie WLAN und kabellose Energieübertragungs- systeme sowie insbesondere unsere WREL/WRPL@Wear-Technologie.
The Wireless Wear is an system architecture that tries to avoid the utilization of cables for connecting the components as far as possib- le, so that in the end no need of cables is given anymore. For its realization wireless connectivities are applied, like WLAN and wireless power transmission systems, as well as specifically our WREL/WRPL@ Wear technology.

 

   
WrapWear™ 25.February.2013
Die WrapWear wickelt sich von alleine um zum Beispiel einen Körper, wenn man es drumherum schlägt.
The WrapWear wrapes around a body all alone, for example, if slapped around it.

 

   
CS Wear™ 200x
Die CS Wear ist eine intelligente Bekleidung/Sm@rtWear mit einem E-Papier-Bildschirm, der farbige Inhalte darstellen kann.
The CS Wear is an intelligent raiment/Sm@rtWear with an e-paper screen, that can display coloured content.

 

   
LED We@r™ 200x
Die LED-Wear besitzt eine Anzeige auf Basis der LichtEmittierenden Diode (LED), wie z. B. die Organische LED (OLED), die Passive Matrix OLED (PMOLED) und die Aktive Matrix OLED (AMOLED).
The LED Wear features a display on the basis of the Light-Emitting Diode (LED), like for example the Organic LED (OLED), the Passive Matrix OLED (PMOLED), and the Active Matrix OLED (AMOLED).

 

   
3D Wear™ 200x
Die 3D-Wear besitzt einen 3D-Bildschirm, den wir bis zum Jahr 2003 für unseren 3D-Palm-Computer entwickelt haben und auch mit neue- ren portablen Spielkonsolen genutzt wird und unsere darauf basie- rende Weiterentwickelung der mehrstufigen/vielschichtigen 3D-Bild- schirme, um Inhalte dreidimensional darzustellen.
The 3D Wear features a 3D display taken from our 3D-Palm-Compu- ter, that we developed until the year 2003 and as it is also used with newer handheld game consoles, our further developed Multi-Layer/ Stacked Displays, for displaying content three-dimensionally.

 

   
BeamWear™ 25.February.2013
Die BeamWear besitzt einen oder mehrere Projektoren, die auf un- seren NanoProjektoren basieren, um Informationen, wie z. B. Zeit und Datumsangaben, auf den Körper der Benutzerin/des Benutzers oder auf beliebige Objekte zu projizieren.
The BeamWear has one or more beamers that are based on our NanoProjectors for projecting informations, like e.g. time and date, on the body of its wearer or on beliebige objects.

 

   
EyeRaiment/Wear 200x
Die EyeWear nutzt unsere Retinaprojektion um Informationen, wie z. B. Zeit und Datumsangaben in die Augen seiner Benutzerin/seines Benutzers oder auf beliebige Objekte zu projizieren.
The EyeWear features our Retina Projection for projecting informations in the eyes of its wearer or on any objects.

 

   
ActiveWear™ 25.February.2013
Die ActiveWear besitzt unseren aktiven Schirm==Active Screen oder unsere aktive Anzeige==Active Display.
The ActiveWear features our Active Screen or our Active Display.

 

   
SoundWear™ 20.August.2013
Die SoundWear besteht als Ganzes oder in Teilen aus einem Gewebe, das schwingen kann und hierdurch akustische Geräusche erzeugt.
The SoundWear constists as a whole or in parts of a fabrics that can swing and in this way produce an acoustic sound.

 

   
CloakWear™ 1.July.2013
Die CloakWear nutzt nach Bedarf die Technologien der LED-Wear, 3D- Wear, ActiveWear und KineticWear als auch ein geeignetes Metage- webe, sodass die Paradigmen der Angereicherten Realität (AR) und der geMischten Realität (MR) realisierbar sind. Im Prinzip funktioniert diese Technologie wie eine Tarnvorrichtung indem man zum Beispiel einen Arm hochhält und hindurchsieht, wobei es mit unserer Lösung sogar möglich ist zusätzliche Informationen zu erhalten. In der Tat geht die CloakWear weit über Harry Potters Tarnumhang hinaus.
The CloakWear uses as needed the technologies of the LED Wear, 3D Wear, ActiveWear, and KineticWear as well as a suitable Metafabric, so that the paradigms of the Augmented Reality (AR) and the Mixed Reality (MR) are realizable. Basically, this technology works like a cloaking device by holding an arm up and looking through for examp- le, while it is even possible with our solution to get additional inform- ations. Indeed, the CloakWear goes far beyond Harry Potter's invisib- ility cloak.

 

   
MultiWear™ 200x
Die MultiWear führt die Konzepte einer Bekleidung mit Multimedia, inklusive Text, Graphiken, Animationen, Musik, Bilder, Videos und so weiter, zusammen. Sie kann unter anderem einen E-Papier-Bildschirm besitzen.
The MultiWear brings together the concepts of a raiment/wear with multimedia, inclusive text, graphics, animations, music, pictures, videos, and so on. It can feature an e-paper display among others.

 

   
MarkupWear™ 25.February.2013
Die MarkupWear nutzt normale Auszeichnungssprachen (wie etwa HyperText Markup Language (HTML), Extendable Markup Language (XML) und XML HTML (XHTML)) und deren Konzepte, vor allem den sogenannten Canvas-Tag für das Zeichnen von 2D- und 3D-Graphi- ken, um Informationen und Inhalte darzustellen, zum Beispiel als eine MultiWear oder eine SmartWebWear™, aber auch um insbesondere seine visuelle Gestaltung zu ändern.
The MarkupWear uses standard markup languages (e.g. HyperText Markup Language (HTML), Extendable Markup Language (XML) and XML HTML (XHTML)) and their concepts, specifically the so-called tag canvas for the drawing of 2D and 3D graphics, for displaying informations and contents, for example as a MultiWear or a Smart- WebWear™, but also for changing its visual appearance.

 

   
WebWear™ 200x
Die WebWear nutzt Netzwerktechnologien, insbesondere Funktech- nologie basierte, wie sie zum Beispiel auch von Mobiltelefonen genutzt werden, inklusive Bluetooth, Full Wi-Fi und MultiWLAN und das Internetprotokoll.
The WebWear uses network technologies, especially radio techno- logy based, like they were utilized by mobile/cell phones for example, inclusive Bluetooth, Full Wi-Fi and MultiWLAN, and the internet protocol.

 

   
CloudWear™ 25.February.2013
Die CloudWear ist eine WebWear, die als Weltpremiere die Konzep- te einer Bekleidung und dem Cloud-Computing zusammenführt.
The CloudWear is a WebWear that brings together the concepts of a raiment/wear and the cloud computing, as a world's first.

 

   
TagWear™ 25.February.2013
Die TagWear stellt lineare/eindimensionale Strichcodes, Matrixcodes /zweidimensionale (Strich)Codes/2D-Codes, wie den Quick-Resp- onse-Code (QR Code), den Data-Matrix-Code und den Aztec-Code, Punktcodes, Composite-Codes sowie andere Kodierung dar. Besonde- re Versionen können sogar Etiketten der Funktechnologien Near Field Communication (NFC), Radio-Frequency IDentification (RFID) und an- dere emulieren, aber auch durch eingebaute elektronische Bauelemente beliebige Codes und Etiketten erfassen.
The TagWear displays one-dimensional/linear barcodes, two-dim- ensional codes/2D codes/matrix codes, like the Quick Response code (QR Code), Data Matrix code and Aztec code, composite-codes, as well as other codes. Special versions can emulate tags of the radio technologies Near Field Communication (NFC), Radio-Frequency ID- entification (RFID) and others, but also record codes and tag with built-in electronic elements for reading and receiving.

 

   
VibeWear™ 200x
Die VibeWear ist eine intelligente und smarte Bekleidung, die vibrieren kann und dabei zum Beispiel den Morsekode verwendet um die Zeit anzugeben.
The VibeWear is an intelligent and smart raiment that can vibrate and thereby use for example the morse code for telling the time.

 

   
HapticWear™ 25.February.2013
Die HapticWear ist eine unglaubliche Lösung, die einen haptischen Bildschirm, der mit dem haptischen Papier vergleichbar ist, oder/und die WaveTouch-Technologie besitzt. Hierdurch kann man vor dem An- ziehen und dynamisch während dem Tragen individuell einstellen, wie sich die Bekleidung anfühlt und somit den Tragekomfort steigern. Nimmt man noch zum Beispiel die MultiWear-Technologie hinzu, dann ergeben sich total faszinierende und zuvor unbekannte Möglichkeiten.
The HapticWear is an unbelievable solution, which features a hapticle display, which is comparable with the haptic paper, or/and the WaveTouch technology. Because of this one can individually adjust how the wear feels like and in this way increase the wearing comfort before putting on and dynamically during wearing. If for example the MultiWear technology is added as well, then totally fascinating and before unknown possibilities emerge.

 

   
TouchWear™ 25.February.2013
Die TouchWear basiert auf dem Konzept der Touch-, Multitouch- oder/und der TouchWave-Technologie.
The TouchWear is based on the concept of the touch, multi-touch, or/and TouchWave technology.

 

   
KineticWear™ 25.February.2013
Die KineticWear ist eine intelligente und smarte Bekleidung, die unsere MobileKinetic- und MultiKinetic-Technologien verwendet.
The KineticWear is an intelltigent raiment/Sm@rtWear, which applies our MobileKinetic and MultiKinetic technologies.

 

   
WaveWear™ 24.February.2012
Die WaveWear ist eine intelligente und smarte Bekleidung, die unser Wellenfeldrechnenparadigma und unsere Wavicle-, TouchWave- oder/ und WaveTouch-Technologien verwendet.
The WaveWear is an intelltigent raiment/Sm@rtWear, which applies our wave-field computing paradigm, Wavicle, TouchWave or/and WaveTouch technologies.

 

   
MuWear™/μWear™ 200x
Die μWear ist die weltweit erste Bekleidung mit einer integrierten Muskel-Computer-Schnittstelle. Auf diese Art und Weise können Be- wegungen des Körpers durch das Messen seiner Muskelaktivität er- kannt werden. Die Lösung ermöglicht den berührungslosen Gebrauch der intelligenten und smarten Bekleidung als auch anderer Geräte.
The μWear is the worldwide raiment/wear with an integarted muscle-computer interface. By doing this, body movements can be recogniz- ed by monitoring the activity of the muscles. The solution makes the touch-free using of the intelligent raiment/wear itself, but also of other devices possible.

 

   
HeartWear™/Wear™ 200x
Die HeartWearist eine intelligente und smarte Bekleidung, die durch ihre integrierte Herzfrequenz und -rhythmus-Computer-Schnittstelle auf der Basis eines perkutanen/transkutanen Lichtsensor das Messen und Beobachten von Herzaktivitäten erlaubt. Sie wird durch die Vita- Wear und die FitWear erweitert. Als eine WebWear können zwei oder mehrere TrägerInnen auch ihre Herzschläge austauschen und so ihre Gefühlszustände den anderen Personen mitteilen, so dass z. B. Lie- bende nie mehr einen Herzschlag vermissen werden. Aber auch die Übertragung des Gesundheitszustandes zur Unterstützung der medi- zinischen Versorgung, wie sie hauptsächlich in der V.R.China größten- teils durch das Puls nehmen praktiziert wird, ist so über beliebige Dis- tanzen möglich, was im Allgemeinen auch für das Militär und viele an- dere Dienste und Aufgaben als großer Vorteil erkannt wurde.
The HeartWear is an intelltigent and smart raiment, that enables with its integrated heart rate and heart rhythm computer interface on the basis of a percutaneous/transcutaneous photosensor the measuring and monitoring of heart activities. It is extended by the VitaWear and the FitWear. As a WebWear two or more wearers can share their heart rates and in this way communicate their emotional states to the other persons, so that e.g. lovers' hearts will never miss a beat again. But also the transmission of the state of health for the support of the health care, as it is practiced particularly in the P.R.China to a great extent by taking the pulse, is possible over any distances, which in general has been recognized as a great ad- vantage for the military and also many other services and tasks of a society as well.

 

   
VitaWear™ 200x
Die VitaWear erweitert die HeartWear mit mehr Sensoren für die Kon- trolle weiterer Vitalparameter als auch anderer Parameter ihrer Trä- gerin/ihres Trägers. Dazu nutzen wir unseren VitaCore.
The VitaWear extends the HeartWear with more sensors for monitor- ing additional vital parameters and also other parameters of its wearer. For this, we utilize our VitaCore.

 

   
FitWear™ 200x
Die FitWear ist ein Fitness-Kontrollsystem in Form einer intelligenten und smarten Bekleidung, das die HeartWear und die VitaWear erwei- tert indem sie die Körperbelastungen feststellt und den Kalorienver- brauch sowie die Fitness misst, brechnet und leitet. Dazu wird unter anderem die Prozedur des Elektrokardiogramms (EKG) angewendet.
The FitWear is a fitness monitoring system in form of an intelligent raiment/Sm@rtWear that extends the HeartWear and the VitaWear by observing the body stresses and measuring, calculating and managing the calorie consumption as well as fitness. For this, the ElectroCardioGraphy (ECG) procedure is applied among others.

 

   
MeterWear™ 200x
Die verschiedenen Versionen der MeterWear besitzen besondere Sensoren für die Messung von wissenschaftlichen Werten aus den Bereichen der Physik, Chemie und Biologie.
The different versions of the MeterWear feature special sensors for measuring scientific values of the fields physics, chemistry and biology.

 

   
GPSWear™ 200x
Die GPSWear besitzt unseren GPSkern mit MultiGPS-Technologie und kann als eigenständige Navigationshilfe als auch als ein Funktions- modul für andere sm@rte Brillen genutzt werden, die zu mehr Funk- tionalitäten führt. So kann zum Beispiel die FitWear Entfernungen berechnen und die Ergebnisse in die Fitness-Kontrolle und die Erstel- lung von einem Trainingsplan oder einem Ernährungsplan einfließen lassen. Ein weiteres Beispiel ist die Kombination mit dem Netzwerk- modul der WebWear oder einem Mobiltelefon, sodass zusätzliche Quellen für die Positionsbestimmung genutzt werden können.
The GPSWear features our GPSCore with the MultiGPS technology and can be used alone as a navigation aid. In this way, the GPS module can be connected with the other modules of the related mobile device system, which leads to more functionalities. For ex- ample, the FitWear can calculate distances and let these results influence the fitness monitoring and the development of a workout plan or a nutritional protocol. A further example is the combination with the network module of the WebWear or a mobile/cell phone, so that additional sources for the determination of the position can be used.

 

   
     
Accumulator/Battery Bracelet™ 22.August.2013
Das Akkumulatorarmband ist ein Gliederarmband, das aus vielen klei- nen Akkumulator-/Batteriezellen besteht, die zu einem Energiespei- cher verbunden sind. Der Energiespeicher kann mit einem weichen Material umhüllt werden um den Tragekomfort des Akkumulatorarm- bandes zu erhöhen. Weitere Varianten bestehen aus unserem dehn- baren Akkumulator oder/und unserem Akkugewebe.
The Accumulator/Battery Bracelet is an expanding bracelet, which consists of many small accu/battery cells connected to one energy storage. The energy storage can be wraped up with a soft material for increasing the wear comfort of the Accumulator/Battery Bracelet. Another variant consists of our Stretch Accu or/and Accu Fabrics.

 

   
Accumulator/Battery Necklace™ 22.August.2013
Die Akkumulatorhalskette ist eine Gliederhalskette, die aus vielen kleinen Akkumulator-/Batteriezellen besteht, die zu einem Energie- speicher verbunden sind. Der Energiespeicher kann mit einem weich- en Material umhüllt werden um den Tragekomfort der Akkumulator- halskette zu erhöhen. Weitere Varianten bestehen aus unserem dehnbaren Akkumulator oder/und unserem Akkugewebe.
The Accumulator/Battery Necklace is an expanding necklace, which consists of many small accu/battery cells connected to one energy storage. The energy storage can be wraped up with a soft material for increasing the wear comfort of the Accumulator/Battery Neck- lace. Another variant consists of our Stretch Accu or/and Accu Fabrics.

 

   
Accumulator/Battery Scarf™ 22.August.2013
Der Akkumulatorschal ist ein mobiler Energiespeicher, der aus unse- rem dehnbaren Akkumulator oder/und unserem Akkugewebe besteht und mit einem weichen Material umhüllt werden kann. Der Akkumula- torschal wird um den Hals, über die Schultern hängend oder um die Hüfte gewickelt getragen.
The Accumulator/Battery Scarf is a mobile energy storage, which consists of our Stretch Accu or/and Accu Fabrics and can be wraped up with a soft material. The Accumulator/Battery Scarf can be worn around the neck, hanging over the shoulders, or wraped around the waist.

 

   
RobyWear™ 2001 and 11.August.2012
Als Pioniere haben wir die Integration der Robotik und der intelligen- ten Bekleidung (iRaiment) zu unserer Roboterbekleidung rRaiment™ mitgestaltet und sie mittlerweile zu der ParyWear bzw. pRaiment™ weiterentwickelt. Zum einen umfasst dieser Technologiebereich die Integration der Benutzerschnittstelle zur Steuerung von Robotern in die Bekleidung, aber zum anderen auch zum Beispiel Rucksäcke mit mechanischen Armen oder/und Beinen als zusätzliche Hilfen für die Bewerkstelligung von speziellen Aufgaben.
As pioneers we have helped to form the integration of the robotics and the intelligent wear/raiment (iRaiment) to the robotic raiment (rRaiment™), and developed it further to the ParyWear resp. parionic raiment (pRaiment™) in the meantime. On one side this field of tech- nology comprises the integration of the user interface for the control of robots in the wear, but on the other side also for example back- packs with mechanical arms or/and legs as additional aids for the accomplishment of special tasks.

 

   
ParyWear™ 11.August.2012
Durch die Integration der Parionik und der intelligenten Bekleidung (iRaiment) haben wir die parionische Bekleidung (pRaiment™) erfun- den, wobei wir die Lösungen unserer Roboterbekleidung RobyWear bzw. rRaiment™ nutzen. Dieser Technologiebereich umfasst zum einen die Integration der Benutzerschnittstelle zur Steuerung von parionischen Objekten in die Bekleidung, aber macht zum anderen auch die Bekleidung und die Umgebung um die/den TrägerIn zu parionischen Objekten.
With the integration of the parionics and the intelligent wear/raiment (iRaiment) we've invented the parionic raiment (pRaiment™), thereby using the solutions of our robotic wear/raiment RobyWear respect- ively rRaiment™. This field of technology comprises on one side the integration of the user interface for the control of parionic objects in the wear, but on the other side makes the wear and the environment around its wearer to parionics objects.

 

   
     

 

e-dashboard™ 2008 - 2011
Multimediales Armaturenbrett für Fahrzeuge jeder Art das auf dem Konzept des E-Papiers oder/und OLED basiert. Multitouch-fähig, vollkommen personalisierbar und in Verbindung mit unseren Lösungen AutoSemantic:: Car™, SenseTouch™ und AITouch™ sowie dem eVSG@Car™ wegweisend.
Neuere Versionen erlauben die Nutzung unserer MobileKinetic™- und MultiKinetic™-Technologien, der haptische Lautsprechertechnologie, der Wellenfeldsynthese, des LaserPapiers™ (lPapier), der mehr- schichtigen 3D-/Holografiebildschirme oder/und der Technologie der Retinabildschirme™/Retinaprojektoren™, inklusive der Retinaskope™.
Multimedia dashboard for vehicles of every kind, that is based on the concept of the e-paper or/and OLED. Multi-touchable, totally personalizable, and leading the way in conjunction with our solutions AutoSemantic::Car™, SenseTouch™ and AITouch™, and eVSG@Car™.
Newer versions enable the application of our MobileKinetic™ and MultiKinetic™ technologies, the Haptic Speaker™ technology, the wave-field synthesis, the LaserPaper™ (lpaper), the multi-layer/ stacked 3D/holographic displays, or/and the technology of the Re- tina Projectors™, inclusive the Retinascopes™.

 

   
e-center console™ 11.July.2009
Die multimediale Mittelkonsole für Fahrzeuge jeder Art besitzt die gleichen Eigenschaften wie unser multimediales Armaturenbrett e-dashboard.
The multimedia center console for vehicles of every kind has the same features as our multimedia e-dashboard.

 

   
e-back shelf™ 11.July.2009
Die multimediale Hut-/Heckablage für Fahrzeuge jeder Art besitzt die gleichen Eigenschaften wie unser multimediales Armaturenbrett e-dashboard und unsere multimediale Mittelkonsole e-center console. Ganz neue Möglichkeiten werden durch die Integration mit unserer e-door erreicht.
The multimedia back shelf for vehicles of every kind has the same features as our multimedia e-dashboard and our multimedia e-center console. Totally new possibilities are achieved with the integration of our e-door.

 

   
e-door panel™ 11.July.2009
Die multimediale Türverkleidung für Fahrzeuge jeder Art besitzt die gleichen Eigenschaften wie unser multimediales Armaturenbrett e-dashboard und unsere multimediale Mittelkonsole e-center console. Ganz neue Möglichkeiten werden durch die Integration mit unserer e-door erreicht.
The multimedia door panel for vehicles of every kind has the same features as our multimedia e-dashboard and our multimedia e-center console. Totally new possibilities are achieved with the integration of our e-door.

 

   
e-roof liner™ 2008
Der multimediale Dachhimmel für Fahrzeuge jeder Art besitzt die gleichen Eigenschaften wie unsere multimediale Türverkleidung e-door panel.
The multimedia roof liner for vehicles of every kind has the same features as our multimedia e-door panel.

 

   
     
Active Screen™ and Active Display™@Car 13.January.2013
Der aktive Schirm==Active Screen@Car und die aktive Anzeige== Active Display@Car sind multimediale Komponentenkonzepte für das Exterior und das Interior von Fahrzeuge aller Art, die unsere Techno- logien des aktive Schirms und der aktiven Anzeige integrieren.
The Active Screen@Car and the Active Display@Car are multimedia component concepts for the exterior and interior of vehicles of every kind, that integrate the technologies of our Active Screen and Act- ive Display.

 

   
Active Screen™ and Active Display™@Ship 13.January.2013
Der aktive Schirm==Active Screen@Ship und die aktive Anzeige== Active Display@Ship sind multimediale Komponentenkonzepte für das Exterior und das Interior von Wasserfahrzeugen aller Art, die unsere Technologien des aktive Schirms und der aktiven Anzeige integrieren.
The Active Screen@Ship and the Active Display@Ship are multimedia component concepts for the exterior and interior of watercrafts of every kind, that integrate the technologies of our Active Screen and Active Display.

 

   
Active Screen™ and Active Display™@Plane 13.January.2013
Der aktive Schirm==Active Screen@Plane und die aktive Anzeige== Active Display@Plane sind multimediale Komponentenkonzepte für das Exterior und das Interior von Fluggeräten aller Art, die unsere Tech- nologien des aktive Schirms und der aktiven Anzeige integrie- ren.
The Active Screen@Plane and the Active Display@Plane are multi- media component concepts for the exterior and interior of aircrafts of every kind, that integrate the technologies of our Active Screen and Active Display.

 

   
Active Screen™ and Active Display™@Spaceship 13.January.2013
Der aktive Schirm==Active Screen@Spaceship und die aktive Anzei- ge==Active Display@Spaceship sind multimediale Komponentenkon- zepte für das Exterior und das Interior von Raumfahrzeugen aller Art, die unsere Technologien des aktive Schirms und der aktiven Anzeige integrieren.
The Active Screen@Spaceship and the Active Display@Spaceship are multimedia component concepts for the exterior and interior of spacecrafts of every kind, that integrate the technologies of our Active Screen and Active Display.

 

   
     
Sp@ce™@Car 2006 and 2008
Das Sp@ce@Car-System ist ein multimediales Interiorkonzept für Fahrzeuge jeder Art, das die Sp@ce-Technologie anwendet.
The Sp@ce@Car system is a multimedia interior concept for vehicles of every kind, which applies the Sp@ce technology.

 

   
Sp@ce™@Ship 2006 and 2008
Das Sp@ce@Ship-System ist ein multimediales Interiorkonzept für Wasserfahrzeuge jeder Art, das die Sp@ce-Technologie anwendet.
The Sp@ce@Ship system is a multimedia interior concept for watercrafts of every kind, which applies the Sp@ce technology.

 

   
Sp@ce™@Plane 2006 and 2008
Das Sp@ce@Plane-System ist ein multimediales Interiorkonzept für Fliggeräte jeder Art, das die Sp@ce-Technologie anwendet.
The Sp@ce@Plane system is a multimedia interior concept for aircrafts of every kind, which applies the Sp@ce technology.

 

   
Sp@ce™@Spaceship 2006 and 2008
Das Sp@ce@Spaceship-System ist ein multimediales Interiorkonzept für Raumschiffe jeder Art, das die Sp@ce-Technologie anwendet.
The Sp@ce@Spaceship system is a multimedia interior concept for spacecrafts of every kind, which applies the Sp@ce technology.

 

   
Holonicle™@Car 25.March.2008
Das Holonicle@Car-System ist ein multimediales holographisches In- teriorkonzept für Fahrzeuge jeder Art das die Holonicle Monitore ver- wendet.
The Holonicle@Car system is a multimedia holographic interior con- cept for vehicles of every kind that applies the Holonicle displays.

 

   
     
   
   
   
   
Laser Lamp™@Car 15.March.2012
Unsere Laserlampe@Car ist eine Laserscheinwerfertechnologie, die unsere LASER-Projektionstechnologien nutzt, sowohl als Vorderlaser als auch als Rücklaser realisierbar ist und durch ihre technischen Eigenschaften zu vielen neuen Anwendungen führt. Somit ist unter anderem die Weiterentwicklung unserer Active Light-Technologie durch die Kreation der Version 2.0 auch ein logischer Schritt.
Die grundlegende Funktionsweise erlaubt es nun beliebige Bereiche präzise auszuleuchten, wie etwa um ein Objekt oder ein entgegen- kommendes Auto, indem exakt dessen Kontour gefolgt wird, was mit anderen Beleuchtungstechniken grundsätzlich so nicht möglich ist. Weitere Anwendungen sind zum Beispiel die farbige Projektion von Verkehrszeichen, Warnzeichen und anderen Zeichen direkt auf die Straße und die Projektion der Längsachse oder der Bewegungsrich- tung eines Fahrzeuges durch einen beliebig geformten Strahl, sodass man anderen Verkehrsteilnehmern jegliche Informationen geben kann und sie bis zu 100er von Metern im Voraus über ein ankommendes Fahrzeug gewarnt werden. Durch die Nutzung von den sogenannten Kinetic-Technologien und unsere MobileKinetic™ Systeme kann auch unsere Retinaprojektion™ für besondere Anwendungen integriert werden.
Our Laser Lamp™@Car is a lights system that applies our laser pro- jection technologies, is realizable both as Headlaser™ and also as Taillaser™, and results in many new applications by its technical properties. Hence, the further development of our Active Light by the creation of the version 2.0 is also a logical step, among others.
The basic functionality now permits to illuminate any area precisely, like around an object or an oncoming car, by exactly following its contours, which is not possible with other lighting technologies in principle. Further applications are for example the coloured project- ion of road signs, warning signs and other signs directly on the road, and the projection of the longitudinal axis or the direction of move- ment of a vehicle, so that any informations can be given to other traffic participants, and they can be warned about an arriving veh- icle already 100s of meters ahead. By using the so-called Kinetic technologies and our MobileKinetic™ systems our Retina Projection™ can be integrated as well.

 

   
     

 

HouseTouch™/TouchinHouse™ 2001
Haptik-, Gestik- und Künstliche Intelligenz-basierte Bedienungs-/ Managementsysteme für den Einsatz in intelligenten progressiven Gebäuden.
Haptic-, gestures- and artificial intelligence-based control-/ managementsystems for the use in intelligent progressive buildings.

 

   
OruKami™@Home 2001
Multimediale Tapete und Wandverkleidung/-teppich aus flexiblen faltbaren 2D- und 3D-Monitoren.
Multimedia wallpaper and wall-carpet made out of flexible foldable 2D- and 3D-displays.

 

   
Active Screen™ and Active Display™@Home 13.January.2013
Der aktive Schirm==Active Screen@Home und die aktive Anzeige= =Active Display@Home sind multimediale Bauelementkonzepte für das Exterior und das Interior von Gebäuden aller Art, die unsere Techno- logien des aktiven Schirms und der aktiven Anzeige integrieren.
The Active Screen@Home and the Active Display@Home are multi- media architectural element concepts for the exterior and interior of spacecrafts of every kind, that integrate the technologies of our Active Screen and Active Display.

 

   
Emotion Tableware™ I 12.June.2012
Das Emotions-/Gefühlsgeschirr kombiniert Tischgeschirr, wie zum Beispiel Teller, Schüsseln und Tassen, mit zwei- oder mehrfarbigem e-Papier. Der Vorteil unserer Lösung im Vergleich zu anderen flexiblen Bildschirmtechnologien ist, wie z. B. LED und OLED, dass es keinen elektrischen Strom benötigt um das letzte Bild anzuzeigen.
The Emotion Tableware combines tableware, like for example plates, dishes und cups, with monochrome or coloured e-paper. The advant- age of our solution is that in comparison with other flexible display technologies, like e.g. LED and OLED, it needs no further electric power for showing the last image.

 

   
Emotion Tableware™ II 13.January.2013
Das Emotions-/Gefühlsgeschirr II kombiniert Tischgeschirr, wie zum Beispiel Teller, Schüsseln und Tassen, mit unseren Technologie der mehrstufigen/ vielschichtigen Anzeige.
The Emotion Tableware II combines tableware, like for example plates, dishes und cups, with the our technology of the multi-layer/stacked display/screen.

 

   
Emotion Tableware™ III 13.January.2013
Das Emotions-/Gefühlsgeschirr III kombiniert Tischgeschirr, wie zum Beispiel Teller, Schüsseln und Tassen, mit unseren Technologien des aktiven Schirms und der aktiven Anzeige.
The Emotion Tableware III combines tableware, like for example plates, dishes und cups, with our technologies of the Active Screen and Active Display.

 

   
Laser Lamp™@Home 16.March.2012
Unsere Laserlampe@Home ist ein multimediales Innenarchitekturkon- zept für Privathäuser, das unsere LASER-Projektionstechnologien an- wendet. Durch die Anwendung der sogenannten Kinetic-Technologien und unseren MobileKinetic™ Systemen kann auch unsere Retinapro- jektion™ integriert werden.
Our Laser Lamp™@Home is a multimedia interior architecture con- cept for private homes that applies our laser projection technolo- gies. By the application of the so-called Kinetic technologies and our MobileKinetic™ systems our Retina Projection™ can be integrated as well.

 

   
Sm@rt Socket™ 3.May.2013
Der smarte Sockel™ ist ein Adapter mit einem Schraubsockel (zum Beispiel E12 oder E27), einem Bajonettsockel (zum Beispiel B15d) oder einem Stiftsockel (zum Beispiel GU10) auf der einen Seite, einen oder mehrere Stecksockel auf der anderen Seite (zum Beispiel dop- pelpolige Steckverbinder, Universal-Serial-Bus-Buchse (USB-Buchse) oder/und Registered-Jack- (RJ-)Steckverbindung) und ein Netzwerk- modul um die eingesteckten Komponenten zu steuern und Daten zu übertragen. Für den Netzwerkbetrieb können die Technologien der Trägerfrequenzanlage (TFA)==Power Line Communication (PLC) (zum Beispiel PowerLAN) oder/und des drahtlosen lokalen Netzwerks== Wireless Local Area Network (WLAN) eingesetzt werden, wozu jeder Sockel und gegebenenfalls jede eingesteckte Komponente eine eige- ne Identifikationsnummer erhält. Die Komponenten können eine LED- Lampe mit sichtbarem oder infrarotem Licht, eine 2D-Kamera, eine 3D-Kamera, ein Mikrofon, andere geeignete Sensoren, ein (Pico)-Pro- jektor, zusätzliche Optiken oder/und Aktoren für die Bewegung von einzelnen Komponenten und selbstverständlich ein smartes Lichtge- rät sein.
The Smart Socket™ is an adapter with an Edison screw base (E12 or E27 for example), a bajonet mount/turn-and-lock base (for example B15d), or a bi-pin connector (for example GU10) on the one side, one or more plug-in bases on the other side (for example bi-pin connector, Universal Serial Bus (USB) jack, or/and Registered Jack (RJ)), and a network module for controlling pluged-in components and transfering data. For the networking the technologies Power Line Communication (PCL) or/and the Wireless Local Area Network (WLAN) can be utilized, for which every socket and if necessary every pluged-in component gets an own identification number. The components might be a LED light bulb with visilble or infrad-red light, a 2D camera, a 3D camera, a microphone, other suitable sensors, an image (pico) projector, or/and actuators for moving the single components, and for sure a Smart Light device.

 

   
Sm@rt Light™ 7.November.2010 and 1.May.2013
Im Wesentlichen integriert das smarte Licht eine Quelle für sichtba- res Licht, zum Beispiel eine LED-Lampe, mit einem Netzwerkmodul, das für die Lichtsteuerung und den Datentransfer benutzt wird. Wei- tere Varianten haben zudem einen Schalter, einen Helligkeitsregler, eine Infrarotlichtquelle, eine 2D-Kamera, eine 3D-Kamera, ein 2D-Mikrofon, ein 3D-Mikrofon, andere geeignete Sensoren, einen (Pico)Projektor, unsere Laserlampen, zusätzliche Optiken oder/und Aktuatoren um die einzelnen Komponenten zu bewegen. Es kann leicht übliche Glühbirnen, Lichtröhren und LEDn mit Stecksockel aber auch mit Schraubsockel ersetzen, die in Lampen verwendet werden. Eine zusätzliche Version besitz auch eine kabellose Energieüber- tragung, sodass nicht nur die Komponenten, sondern auch andere Geräte mit Strom versorgt werden können, die sich in der Nähe befinden. Der Netzwerkbetrieb basiert auf den bekannten Techno- logien der Trägerfrequenzanlage (TFA)==Power Line Communication (PLC)/PowerLAN oder/und des drahtlosen lokalen Netzwerks== Wireless Local Area Network (WLAN), auch bekannt als WIFI, wozu jede Lampe ihre eigene Identifikationsnummer erhält. Smarte Licht- elemente können mit unseren smarten Sockeln konstruiert werden. Idealerweise wird das smarte Licht mit allen Versionen unseres Sp@ce-Ansatzes genutzt.
Basically, the Smart Light™ integrates a source for visible light, for example an LED lamp/LED light bulb, with a network module, which is used for the light control and the data transfer. Further variants have an on-off switch, a dimmer, an infrad-red light source, a 2D camera, a 3D camera, a 2D microphone, a 3D microphone, other suitable sensors, an image (pico) projector, our Laser Lamps, addi- tional optics, or/and actuators for moving the single components. It can simply replace common light bulbs, light tubes, and LEDs used in lamps with plug-in base but also with screw-in base. An additional version features wireless power transfer as well, so that not only the components are supported with electric power, but also other devices that are in the proximity. The networking is based on the well know technologies of the Power Line Communication (PCL) or/ and the Wireless Local Area Network (WLAN), also known as WI-FI, for which every lamp gets its own identification number. [added on the 3rd of May 2013] Smart Light elements can be constructed with our Smart Sockets. Ideally, the Smart Light is used with all versions of our Sp@ce approach.

 

   
Sp@ce™@Home 200x
Das Sp@ce@Home-System ist ein multimediales Innenarchitektur- konzept für Privathäuser, das die Sp@ce-Technologie anwendet.
The Sp@ce@Home system is a multimedia interior architecture concept for private homes that applies the Sp@ce technology.

 

   
Sp@ce™@Cinema 200x
Space@Cinema/Sp@ceCin bringt unsere SpacemaX-Technologie in das Lichtspielhaus/Kino.
Space@Cinema/Sp@ceCine brings our SpacemaX technology into the cinema.

 

   
Holonicle™@Home 25.March.2008
Das Holonicle@Home-System ist ein multimediales holographisches In- teriorkonzept für Gebäude und Möbel jeder Art das die Holonicle Monitore ver- wendet.
The Holonicle@Home system is a multimedia holographic interior con- cept for buildings and furniture of every kind that applies the Holonicle displays.

 

   
Holodeck@Home™
Das Holodeck@Home basiert auf dem Holonicle::Deck.
The Holodeck@Home is based on the Holonicle::Deck.

 

   
HolomaX™
Die HolomaX-Technologie fokusiert auf die Holodeck ähnlichen Be- standteile unserer Lösungen SpacemaX und SpaceCine für Holokinos.
The HolomaX technology is focusing on the holodeck like parts of our solutions SpacemaX and SpaceCine for Holotheaters.

 

   
     
PowerTable™ 18.April.2011
Der PowerTable integriert einen beliebigen multimedialen Tisch mit kabelloser Stromversorgung, wie unserer Kabellosen Resonanten En- ergieübertragungstechnologie (KRE), so dass andere Geräte kabellos mit Strom aber auch mit Daten versorgt werden, wenn sie auf ihn gelegt oder in seiner Nähe plaziert werden.
The PowerTable integrates a abitrary multimedia table with wireless power supply, like our Wireless Resonant Power Link (WRPL) tech- nology, so that other devices are supported with power, but also with data, if they are laid on or placed near by them.

 

   
L@goTable™ 1.0 1997
Der L@goTable ist ein multimedialer Tisch. Die Glyphen sind aus Lego®-Steine gebaute Objekte, die auch die MultiLego™-bricks einbeziehen.
The L@goTable is a context aware, tangible interface in form of a table. The glyphs are objects made out of Lego®-bricks, which also includes the MultiLego™-bricks.

 

   
L@goTable™ 2.0 25.March.2008
Der L@goTable ist ein multimedialer Tisch. Die Glyphen sind wie bei der ersten Version des L@goTable aus Lego®-Steine gebaute Objekte. Neu ist hingegen eine 3D-Darstellung der virtuellen Objekte.
The L@goTable is a context aware, tangible interface in form of a table. The glyphs are objects made out of Lego®-bricks as in the first version. New is the 3D-rendering of virtual objects.

 

   
RFIDTable™ 1.0 25.May.2008
Der RFIDTable ist ein multimedialer Tisch, der keine Glyphen benötigt, sondern auf die in vielen Gegenständen enthaltenen RFID-Chips reagiert.
The RFIDTable is a multimedia table that does not need glyphs, but reacts on the RFID-Chips that are contained in many objects.

 

   
@able™→@Table™ 30.June.2008
Der @Table ist ein multimedialer Tisch, der eine Internet-Verbindung sowie entweder eigene akustische und visuelle Sensoren oder die Möglichkeit des Anschlusses von externen Mikrofonen und Kameras besitzt. Hierdurch ergeben sich neue Anwendungen, indem zum Bei- spiel der Tisch einer Konversation folgt und entsprechende Informa- tionen im Internet oder Intranet sucht, findet und anschliessend geeignet auf der Tischplatte darstellt.
The @Table is a multimedia table that has a connection to the int- ernet as well as either own acustical and visual sensors, or alternat- ively the possibility to use external microphones and cameras. As a result of this new applications emerge, like for example a table that observes a conversation, searches and finds relevant informations in the Internet or the Intranet, and subsequently presents these on the tabletop accordingly.

 

   
RFIDWall™ 1.0 25.May.2008
Die RFIDWall (RFID-Wand) ist ein grosse Projektionsfläche die entwe- der frei im Raum aufgestellt oder an einer Wand aufgehangen wird. Neben ihren multimedialen Eigenschaften wie SenseTouch™ kann die RFIDWall auch auf RFID-Chips reagieren und entsprechende Informa- tionen anzeigen und verarbeiten.
The RFIDWall is a large projection surface that can be placed free in the room or hanged up at a wall. Besides its multimedial features like SenseTouch™ the RFIDWall is also able to react on RFID-Chips, and shows and processes corresponding informations.

 

   
eVSGWall™ and eVSGFence™ 1.0
Die eVSGWall (eVSG-Wand) ist eine grosse eVSicherheitsGlasscheibe die entweder frei im Raum aufgestellt wird (siehe eVSG™@Home) oder selbst eine Wand oder eine andere räumliche Begrenzung dar- stellt. Neben ihren multimedialen Eigenschaften wie SenseTouch™ kann die eVSGWall auch auf RFID-Chips reagieren und entsprechende Informationen anzeigen und verarbeiten.
The eLSGWall is a large eLSafetyGlass that can be placed free in the room siehe eVSG™@Home), or wall. Besides its multimedial features like SenseTouch™ the RFIDWall is also able to react on RFID-Chips, and shows and processes corresponding informations.

 

   
icarpet™ 2008
Der icarpet ist ein neuartiges Gewebe das durch multimediale Eigen- schaften wie Lumineszenz, SenseTouch™, oder/und veränderbarer Formgebung das Konzept Teppich vollkommen neu definiert.
The icarpet is a new fabric that completely defines in a new way the concept of carpet by multimedia features like luminescence, Sense- Touch™, or/and changeable shaping/styling.

 

   
WREL/WRPL@Home™ 2008
Der Einsatz unserer Kabellosen Resonanten Energieübertragungs- technologie (KRE) in Gebäuden bietet faszinierende neue Möglichkei- ten der Raumgestaltung. So eignet sich diese Technologie bestens für unsere Multimediatische, insbesondere unser PowerTable, Pad Computer, hier unter anderem natürlich die P@d 2.0 Generation sowie weitere mobile Endgeräte, wie die Geräte der cBook 2.0 Generation, smarten Fernbedienungen oder die schnurlosen Telefonen, aber na- türlich auch für weitere stationäre Endgeräte wie Fernseher, insbe- sondere für die 3-dimensionale Darstellung, Projektoren und unsere anderen bildgebenden Technologien (siehe die Abschnitte Image Dis- play 2.0 und Holonicle und z. B. unser LaserGlas (lGlas)) sowie für unser Hawk•E genanntes Konzept fliegender Robotikmöbel. Durch un- sere kabellose (resonante) Energieübertragungstechnologien können auch die Daten problemlos kabellos übertragen werden indem z. B. unser kabelloses lokales Energieverbingungsnetzwerk==Wireless Power Local Area Network (WPLAN) beziehungsweise Wireless-Energy-Fidelity (Wi-E-Fi) verwendet wird.
The application of our Wireless Resonant Power Link (WRPL) techno- logy in buildings delivers fascinating new possibilities for the interior design. Example given, this technology is best suited for our multi- media tables, especially our PowerTable, Pad Computer, here among others the P@d 2.0 generation, for sure, as well as further mobile devices, like the devices of the cBook 2.0 generation, the smart re- mote controls, or the cordless telephones, but also for further stat- ionary devices, for sure, like the television, especially for the 3-dim- ensional displaying, projectors, and our other imaging technologies (see the sections Image Display 2.0 and Holonicle, and for example our LaserGlass (lGlass)), as well as for our Hawk•E named concept of flying robotical furniture. With our technologies of wireless (reson- ant) power linking the data can be unproblematically transmitted wirelessly as well by applying e.g. our Wireless Power Local Area Network (WPLAN) respectively Wireless Energy Fidelity (WiEFi).

 

   
WRPL@Work™ 2008
WRPL@Work folgt unserem irail und ipad im Bereich von Vehikeln mit elektrischen und hybriden Antrieben und WREL/WRPL@Home im Bereich der Innenarchitektur und wendet unsere Erfindung der intelligenten und adaptiven Technologien, die auf dem physikalischen Prinzip der induktiven, magnetisch resonanten und engen/starken sowie lockeren/losen (engen/starken) Kopplung bei der Arbeit an. Diese schließt das Versorgen mit Energie von zum Beispiel Einrichtungensgegenstände wie ganzen Arbeitstischen und Werkbänken, Maschinen, Werkzeugen und Instrumenten durch unsere Innovation der originalen intelligenten und adaptiven, kabellosen, stationären und dynamischen Energiesystemen, die auf der eng/stark gekoppelten Resonanz von magnetischen Wellen basiert und Machinen und Geräte mit unterschiedlichen Bedürfnissen und Positionen mit Energie versorgen kann. Somit ist diese Lösung für Ausbildung, Handwerk und Gesundheitswesen, aber auch für andere Arbeitsbereiche bestens geeignet.
WRPL@Work follows our irail and ipad in the field of vehicles with electric and hybrid drivetrains, and WREL/WRPL@Home in the field of interior architecture/design and applies our invention of the intelligent and adaptive technologies based on the physical principle of inductive, magnetic resonant, and tightly/strongly as well as loosely (strongly) coupling at work. This includes the powering of e.g. pieces of furniture like whole work desks and workbenches, machines, tools, instruments, and further items with our innovation of the original intelligent and adaptive wireless stationary and dynamic energy/power system based on the strong coupled resonance of magnetic waves, which can power machines and devices that have different needs of power and positions. In this way the solution is ideally suited for education, craftsmanship, and healthcare, but also for other areas of work.

 

   
BEL/BPL@Home™ 10.June.2012
Der Einsatz unserer gestrahlten Energieübertragungstechnologie (GE) in Gebäuden bietet faszinierende neue Möglichkeiten der Raumgestal- tung. So eignet sich diese Technologie bestens für unsere LED-An- zeigen und LASER-Anzeigen, aber selbstverständlich auch für unsere anderen bildgebenden Technologien, wie Image Display 2.0, Holonicle und Beamicle, und für weitere stationäre Endgeräte, wie den Multimediatischen, vor allem unser PowerTable. Zudem können auch mobile Endgeräte, wie unsere Pad Computer, hier unter anderem natürlich die P@d 2.0 Generation, die Geräte unserer cBook 2.0 Generation, die smarten Fernbedienungen, die schnurlosen Telefone und weitere mobile Endgeräte genauso mit Energie versorgt werden, wie unser Hawk•E genanntes Konzept fliegender Robotikmöbel. Durch unsere gestrahlte Energieübertragungstechnologien (GE) lassen sich so auch die Daten ohne Probleme kabellos übertragen indem zum Bei- spiel unser kabelloses lokales Energieverbingungsnetzwerk==Wireless Power Local Area Network (WPLAN) beziehungsweise Wireless-Ener- gy-Fidelity (Wi-E-Fi) verwendet wird.
The application of our Beamed Energy Link (BEL) technology in build- ings offers fascinating new possibilities for the interior design. Thus, this technology is best suited for our LED image displays and LASER image displays, but also for our other imaging technologies, like Im- age Display 2.0, Holonicle, and Beamicle, and for further stationary devices, for sure, like multimedia tables, especially our PowerTable. In addition, mobile devices, like our pad computers, of course here among others the P@d 2.0 generation, the devices of the cBook 2.0 generation, the smarte remote controls, the cordless telephones, and further mobile devices can be supported with electric power in the same way, as our Hawk•E named concept of flying robotic furn- iture. With our Beamed Energy Link (BEL) By a clever usage of the physical conditions, the data can be transmitted as well in this way by applying e.g. our Wireless Power Local Area Network (WPLAN) respectively Wireless-Energy-Fidelity (Wi-E-Fi).

 

   
Beamed Energy Stove™/Laser Stove™ 30.August.2012
Der gestrahlte Energie-Herd nutzt unsere gestrahlte Energieübertra- gungstechnologien (GE) und unseren BEL@Home-Ansatz für die Er- setzung von Herden, Grills, Öfen und Mikrowellenherden, sodass eine Kochplatte oder ein geschlossener Kasten überhaupt nicht mehr be- nötigt wird, sondern nur noch eine Arbeitsplatte, eine Unterlage oder Kochgefäße, die die hohen Temperaturen aushalten können. Zusätz- lich können die verschiedenen Varianten des Laser-Herds die Typen und Größen des Kochgeschirrs als auch die zu garenden und zuberei- tenden Lebensmittel erkennen und selbstverständlich auch mit unse- ren Lösungen Cook!Mobile und Holochef/Holocook sowie Haus•E und Cook•E/Chef•E integriert werden. anwenden indem man nur unsere gestrahlte Ener- gieverbindung (GE) nutzt
The Beamed Energy Stove uses our Beamed Energy Link (BEL) and our BEL@Home approach for the substitution of stoves, grills, ovens, and microwaves, so that a hot plate or a closed box is not needed at all anymore, but only a work-/countertop, a pad, or cooking vessels, which can withstand high temperatures. In addition, the different variants of the laser stove can make out the types and sizes of the cookware, and also the food that have to be cooked and prepared, and also be integrated with our solutions Cook!Mobile and Holochef/Holocook, as well as Hous•E and Cook•E/Chef•E, self-evidently.

 

   
iguardrail/irail™ and ipad™ 6.December.2008
Die iguardrail ist die intelligente Leitplanke und -schiene mit verschie- denen Eigenschaften. Zu den faszinierendsten dieser Eigenschaften gehören die Möglichkeit der Selbstheilung und die Integration von Technologien, die auf stark gekoppelten Resonatoren basieren oder anderen Technologien, die auf gekoppelten Resonatoren basieren, wie unserer Kabellosen Resonanten Energieübertragungstechnologie (KRE). Vor allem die zuletzt genannte Eigenschaft der KRE macht den Bedarf von kabelbasierten Batterieladestationen oder sogar Aus- tauschstationen für Akkumulatoren insbesondere von Elektromotor- rädern und -automobilen überflüssig. Die Technologie lässt sich auch unsichtbar in die bestehende Infrastruktur integrieren, indem zum Beispiel die iguardrails in die Stützpfeiler von Brücken, direkt in die Fahrbahn oder in den Untergrund von Parkzonen eingelassen werden. Im letztgenannten Fall wird die Technologie auch ipad genannt. Aber auch als Ersatz der Masten von Ampeln und Strassenlaternen oder der Fahrbahnmarkierung läßt sich die iguardrail Technologie realisie- ren. Die Energiekontaktstelle auf der Seite eines Vehikels kann auch in einen Reifen integriert und durch einen Rad-, Felgen- und Felgen- bandkontakt realisiert werden. Hierdurch wird die Luftspaltweite zwischen den Kontaktstellen signifikant von mehreren 10 Zentimeter auf einige wenige Zentimeter reduziert, was den Vorteil hat, dass die Effizienz des Gesamtsystems drastisch erhöht wird beziehungsweise der Energieverlust auf sehr wenige Prozentpunkte reduziert wird (circa 3%).
Doch unser System kann noch mehr. So ist es sogar möglich in die irail und den ipad Stromgeneratoren, die Vibration und Schall nutzen, zu integrieren indem im letzteren Fall unsere Schallfängertechnologie angewendet wird. Durch geschickte Nutzung der physikalischen Ge- gebenheiten lassen sich so auch die Daten für das Lademanagement, ein Bezahlsystem und andere Anwendungen kabellos übertragen.
The iguardrail is the intelligent crash barrier and rail with different features. To the most fascinating of these features belongs the po- ssibility of self-healing, and the integration of the Wireless Resonant Energy Link (WREL) or other technologies that are based on coupled resonators, like our Wireless Resonant Power Link (WRPL) technolo- gy. Especially the latter feature makes the need of wire based batt- ery charging stations and accumulator exchange stations for electric driven vehicles obsolete. The technology can also be made invisible by integrating it into the existing infrastructure. For example, it is possible to directly set irails into the piers of bridges, into the lanes, or underground of parking spaces. In the latter case the technology is also called ipad. The iguardrail technology is realizable even as a replacement of traffic light and street lamp poles, or the road mark- ing. The power pad on the side of a vehicle can be integrated in a tire/tyre and realized with a wheel-, rim-, and rim-band/tape-pad as well. In this way the air gap between the contact points/pads can be reduced significantly from several 10 centimeters/inches to some few centimeters/inches, which has the advantage that the efficien- cy of the overall system is increased drastically respectively the loss of energy dissipation is reduced to very few percentage points (circa 3%).
But our system is capable to do more. So it is even possible to inte- grate electric power generators that use the vibration and sonic with the irail and ipad by applying in the latter case our Sonic Coll- ector™ technology. By a clever usage of the physical conditions, the data for the charger management, a payment system and other applications can be transmitted as well in this way.

 

   
Wheel Pad™ and Rim Pad™ 8.December.2012
Der Radkontakt, der Felgenkontakt und der Felgenbandkontakt basieren auf der Integration eines Rades, einer Felge oder eines Felgenbandes und einer Kontaktstelle von einem kabellosen Energieübertragungssystem und vereinigen beide Funktionen. Hierdurch kann die Luftspaltweite zwischen den Kontaktstellen signifikant reduziert werden, sodass die Effizienz des Gesamtsystems drastisch erhöht wird. Außerdem ergibt sich anhand der Anzahl der Räder von selbst die Möglichkeit mehrere Kontaktstellen zu nutzen. Die Rad-, Felgen- und Felgenbandkontakte können auf der einen Seite mit allen kabellosen Energieübertragungssystemen genutzt werden und lassen sich auf der anderen Seite auch in elektrische Radmotoren, Radnabenmotoren, Antriebsmotoren außerhalb des Rades sowie in hybride Räder, die zum Beispiel aus einem Rad und einem Rotor bestehen, direkt integrieren.
The Wheel Pad, the Rim Pad, and the Rim Band Pad are based on the integration of a wheel, a rim, or a rim band and a pad of a wireless energy/power transmission systems, and unite both functions. In this way the air gap between the contact points/pads can be reduced significantly, so that the efficiency of the overall system is heightened drastically. Furthermore, on the basis of the count of the wheels follows from itself the possibility to use more contact points. On the one hand, the wheel-, rim- and rim-band-pad, can be used with all wireless energy transmission systems, and on the other hand can be directly integrated in electric as-wheel motors, wheel hub motors, drive motors outside the wheel, as well as in hybrid wheels, which consist of a wheel and a rotor for example.

 

   
berail™ and bepad™ 10.June.2012
Die berail und das bepad sind die gestrahlte Energieleitschiene und die gestrahlte Energiematte, die wie die irail und das ipad funktionie- ren, aber unsere gestrahlte Energieübertragung (GE) anstatt einer induktiven kabellosen Energieübertragung nutzen, wie z. B. unsere kabellose resonante Energieübertragungstechnologie (KRE). Vor allem die zuletzt genannte Eigenschaft der BEL macht den Bedarf von ka- belbasierten Batterieladestationen oder sogar Austauschstationen für Akkumulatoren insbesondere von Elektromotorrädern und -automobi- len überflüssig. Die Technologie lässt sich auch unsichtbar in die be- stehende Infrastruktur integrieren, indem zum Beispiel die gestrahlte Energieleitschienen in die Stützpfeiler von Brücken, direkt in die Fahr- bahn oder in den Untergrund von Parkzonen eingelassen werden. Im letztgenannten Fall wird die Technologie auch bepad genannt. Die berail und das bepad sind auch mit unserer Lösung der gestrahlten Energieoberleitung sowie unseren Systemlösungen Raylev/Wavelev Transport, intelligente Leitschienenlevitation (iRailev), gestrahlte Energieleitschienenlevitation (beRailev) und gestrahlte Energieoberleitungslevitation (beOverheadRailev) kombinierbar.
The berail and the bepad are the Beamed Energy Rail and the Beamed Energy Pad that function like the irail and the ipad, but use our Beamed Energy Link (BEL) instead of an inductive wireless power/energy link, like the Wireless Resonant Energy Link (WREL) or our Wireless Resonant Power Link (WRPL) technology. Especially the latter feature makes the need of wire based battery charging stations and accumulator exchange stations for electric driven vehicles obsolete. The technology can also be made invisible by integrating it into the existing infrastructure. For example, it is possible to directly set berails into the piers of bridges, into the lanes, or underground of parking spaces. In the latter case the technology is also called bepad. The berail and the bepad are also combinable with our Beamed Energy Overhead Rail, as well as our system solutions Raylev/Wavelev Transport, iRailev, beRailev, and beOverheadRailev.

 

   
Beamed Energy Overhead Line/Rail™ 10.June.2012
Die gestrahlten Energieoberleitung==Beamed Energy Overhead Line/ Rail nutzt unsere gestrahlte Energieverbindung (GE) anstatt einer elektrischen Oberleitung. Sie kann mit unserem Raylev/Wavelev Transportsystemen ohne Levitation verglichen werden.
The Beamed Energy Overhead Line/Rail applies our Beamed Energy Link (BEL) instead of an overhead electrical line. It can be compared with our Raylev/Wavelev Transport systems without levitation.

 

   
Haus•E™/Hous•E™ 2001
Die Marke Haus•E steht für die Integration von Architektur und Robotik.
The label Hous•E stands for the integration of architecture and robotics.

 

   
Hous•E::RobotFloor™/RobotGround™ 2008
Erweiterung des Konzepts, beziehungsweise Integration mit dem Konzept der Fussbodenheizung durch Induktionsschleifen. Hierdurch wird nicht nur die Energieübertragung, sondern genauso der Daten- transfer und die sichere Navigation von Hausrobotern kostengünstig ermöglicht. Die neuste Eigenschaft unserer RobotFloor/RobotGround-Lösung ist die optionale Integration der Technologie der Kabellosen Resonanten Energieübertragung (KRE).
Extension/Integration of the concept of the underfloor heating by inductive loops. This makes not only the support with energy, but also the data transfer, and secure navigation of in-house robots possible. The newest feature is the optional integration of the Wire- less Resonant Energy/Power Link (WREL/WRPL) technologies.

 

   
iparquet™ 2008
Erweiterung des Konzepts beziehungsweise Integration mit dem Kon- zept des Parketts durch Induktionsschleifen. Hierdurch wird nicht nur unsere kabellose resonante Energieübertragungstechnologie (KRE), sondern auch der Datentransfer und die sichere Navigation von Hausrobotern wie unseren Rob•E kostengünstig ermöglicht.
Extension respectively Integration of the concept of the parquet by inductive loops. This makes not only the support with energy by our Wireless Resonant Energy/Power Link (WREL/WRPL) technology, but also the data transfer and secure navigation of in-house robots like our Rob•E possible.

 

   
     
     

 

EOP 1.0 2002
EOP bietet spezielle Dienstleistungen und Anwendungen aus dem Bereich Evolutionäres Rechnen für das Ingenieurwesen.
EOP provides special services and applications out of the field of Evolutionary Computing for the engineering.