Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
SYSTEM AND METHOD FOR PROCESSING MICROPHONE SIGNALS
Document Type and Number:
WIPO Patent Application WO/2024/067994
Kind Code:
A1
Abstract:
The invention relates to a system for processing microphone signals, the system comprising: a first processing device for providing a first group of individual microphone signals and a second processing device for providing a second group of individual microphone signals, wherein the first processing device is designed to transmit the first group of microphone signals, via a first radio link, from the first processing device to the second processing device, which is designed to receive the first group of microphone signals, and wherein the second processing device is designed to transmit the second group of microphone signals, via a second radio link separate from the first radio link, from the second processing device to the first processing device, which is designed to receive the second group of microphone signals.

Inventors:
RETTER MICHAEL (AT)
SCHWEIGHOFER DAVID (AT)
Application Number:
PCT/EP2022/077278
Publication Date:
April 04, 2024
Filing Date:
September 30, 2022
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
MIC AUDIO SOLUTIONS GMBH (AT)
International Classes:
H04R25/00; H04S7/00
Domestic Patent References:
WO2021023771A12021-02-11
Foreign References:
US20190182607A12019-06-13
EP2104377A22009-09-23
US20160112811A12016-04-21
US20200077204A12020-03-05
EP2648423A22013-10-09
US20160057547A12016-02-25
US20150124975A12015-05-07
Other References:
OREINOS CHRIS ET AL: "Effect of higher-order ambisonics on evaluating beamformer benefit in realistic acoustic environments", 2013 IEEE WORKSHOP ON APPLICATIONS OF SIGNAL PROCESSING TO AUDIO AND ACOUSTICS, IEEE, 20 October 2013 (2013-10-20), pages 1 - 4, XP032540812, ISSN: 1931-1168, [retrieved on 20140102], DOI: 10.1109/WASPAA.2013.6701882
Attorney, Agent or Firm:
SCHNEIDER, Michael (AT)
Download PDF:
Claims:
Ansprüche

1. System (1) zum Verarbeiten von Mikrofonsignalen (MSI, MS2, MS3, MS4), das aufweist:

- eine erste Verarbeitungseinrichtung (2) zum Bereitstellen von einer ersten Gruppe (Gl) von individuellen Mikrofonsignalen (MSI, MS2) und

- eine zweite Verarbeitungseinrichtung (3) zum Bereitstellen von einer zweiten Gruppe (G2) von individuellen Mikrofonsignalen (MS3, MS4), wobei die erste Verarbeitungseinrichtung (2) dazu ausgebildet ist, die erste Gruppe (Gl) der Mikrofonsignale (MSI, MS2) über eine erste Funkverbindung (15) von der ersten Verarbeitungseinrichtung (2) an die zweite Verarbeitungseinrichtung (3), die zum Empfangen der ersten Gruppe (Gl) der Mikrofonsignale (MSI, MS2) ausgebildet ist, zu übertragen, und wobei die zweite Verarbeitungseinrichtung (3) dazu ausgebildet ist, die zweite Gruppe (G2) der Mikrofonsignale (MS3, MS4) über eine von der ersten Funkverbindung (15) separate zweite Funkverbindung (16) von der zweiten Verarbeitungseinrichtung (3) an die erste Verarbeitungseinrichtung (2), die zum Empfangen der zweiten Gruppe (G2) der Mikrofonsignale (MS3, MS4) ausgebildet ist, zu übertragen.

2. System (1) nach Anspruch 1, das ein binaurales Hörgeräte-System (1) bildet, wobei

- die erste Verarbeitungseinrichtung (2) zum Tragen an der Position des linken Ohrs (102) eines Kopfes (101) einer Person (100) und wobei

- die zweite Verarbeitungseinrichtung (3) zum Tragen an der Position des rechten Ohrs (103) des Kopfes (101) der Person (100) ausgebildet ist.

3. System (1) nach einem der vorangehenden Ansprüche, wobei zumindest eine Verarbeitungseinrichtung (2), bevorzugt beide Verarbeitungseinrichtungen (2, 3), jeweils ein Ausgabemodul (22), insbesondere einen Lautsprecher (23a, 23b) und/oder ein Ausgabemodul zum Ansteuern eines Implantats, aufweist.

4. System (1) nach einem der vorangehenden Ansprüche, wobei

- die erste Verarbeitungseinrichtung (2) ein erstes Funkmodul (6) zum Aussenden der ersten Gruppe (Gl) der Mikrofonsignale (MSI, MS2) aufweist und die zweite Verarbeitungseinrichtung (3) ein zweites Funkmodul (7) zum Empfangen der ersten Gruppe (Gl) der Mikrofonsignale (MSI, MS2) aufweist und wobei

- die zweite Verarbeitungseinrichtung (3) ein drittes Funkmodul (8) zum Aussenden der zweiten Gruppe (G2) der Mikrofonsignale (MS3, MS4) und die erste Verarbeitungseinrichtung (2) ein viertes Funkmodul (9) zum Empfangen der zweiten Gruppe (G2) der Mikrofonsignale (MS3, MS4) aufweist.

5. System (1) nach einem der vorangehenden Ansprüche, wobei die beiden Verarbeitungseinrichtungen (2, 3) zur Bereitstellung einer dauerhaften ersten und zweiten Funkverbindung (15, 16) ausgebildet sind.

6. System (1) nach einem der vorangehenden Ansprüche, wobei

- die erste Verarbeitungseinrichtung (2) dazu ausgebildet ist, die erste Gruppe (Gl) der Mikrofonsignale (MSI, MS2) zusammen mit der per Funkverbindung empfangenen zweiten Gruppe (G2) der Mikrofonsignale (MS3, MS4) phasensynchron zu verarbeiten, und wobei

- die zweite Verarbeitungseinrichtung (3) dazu ausgebildet ist, die zweite Gruppe (G2) der Mikrofonsignale (MS3, MS4) zusammen mit der per Funkverbindung empfangenen ersten Gruppe (Gl) der Mikrofonsignale (MSI, MS2) phasensynchron zu verarbeiten.

7. System (1) nach einem der vorangehenden Ansprüche 4 bis 6, wobei das erste Funkmodul (6) dazu ausgebildet ist, zumindest ein erstes Mikrofonsignal (MSI) von einem ersten Mikrofon (10) und ein zweites Mikrofonsignal (MS2) von einem zweiten Mikrofon (11) zu empfangen und als die erste Gruppe (Gl) von individuellen Mikrofonsignalen (MSI, MS2) zu übertragen und das dritte Funkmodul (8) dazu ausgebildet ist, zumindest ein drittes Mikrofonsignal (MS3) von einem dritten Mikrofon (12) und ein viertes Mikrofonsignal (MS4) von einem vierten Mikrofon (13) zu empfangen und als die zweite Gruppe (G2) von individuellen Mikrofonsignalen (MS3, MS4) zu übertragen.

8. System (1) nach einem der vorangehenden Ansprüche, wobei jede der Verarbeitungseinrichtungen (2, 3) ein Verarbeitungsmodul aufweist, welches zur Verarbeitung der beiden Gruppen (Gl, G2) der Mikrofonsignale (MSI, MS2; MS3, MS4) ausgebildet ist.

9. System (1) nach einem der vorangehenden Ansprüche, wobei jede der Verarbeitungseinrichtungen (2, 3), insbesondere jedes der Verarbeitungsmodule gemäß Anspruch 8, zum Verarbeiten der zwei Gruppen (Gl, G2) der Mikrofonsignale (MSI, MS2; MS3, MS4) gemäß dem Ambisonics- Format ausgebildet ist. vorangehenden Ansprüche, wobei zumindest eine der Verarbeitungseinrichtungen (2), bevorzugt beide Verarbeitungseinrichtungen (2, 3), einen Lagesensor (21a, 21b) zum Bereitstellen eines Lagesensorsignals, bevorzugt einen mechanischen Lagesensor, besonders bevorzugt einen Beschleunigungssensor und/oder ein Gyroskop (21a, 21b), aufweist und dazu ausgebildet ist, die Mikrofonsignale (MSI, MS2, MS3, MS4) unter Berücksichtigung des Lagesensorsignals zu verarbeiten.

11. System (1) nach einem der vorangehenden Ansprüche, wobei zumindest eine Verarbeitungseinrichtung (2), bevorzugt beide Verarbeitungseinrichtungen (2, 3), ein Eingabemodul (20) zum Erfassen einer Benutzerinteraktion aufweist und die Verarbeitungseinrichtung (2, 3) dazu ausgebildet ist, die Mikrofonsignale (MSI, MS2, MS3, MS4) unter Berücksichtigung der erfassten Benutzerinteraktion zu verarbeiten.

12. System (1) nach Anspruch 11, wobei das Eingabemodul (20) dazu ausgebildet ist, Benutzerinteraktionen innerhalb der Ohrmuschel zu erfassen oder vor der Ohrmuschel zu erfassen oder entlang des vorderen Rands der Ohrmuschel, insbesondere hin zum oberen Rand, zu erfassen.

13. System (1) nach einem der Ansprüche 11 bis 12 wobei das Eingabemodul (20) zumindest eine Touchbar aufweist oder als Touchbar ausgebildet ist.

14. System (1) nach einem der vorangehenden Ansprüche 11 - 13, wobei ein Gehäuse (38), an dem eine berührungssensitive Oberfläche einer ersten Touchbar zugänglich ist, zumindest einseitig, bevorzugt jedoch beidseitig, an ein verformbares, insbesondere plastisch verformbares, Verbindungselement (37, 40) anschließt.

15. System (1) nach dem Anspruch 14 in Kombination mit dem Anspruch 3, wobei das verformbare Verbindungselement als ein erstes Verbindungselement (37) ein Gehäuse eines signalabgebenden Teils des Ausgabemoduls (22) mit einem Gehäuse (38), an dem die berührungssensitive Oberfläche der ersten Touchbar zugänglich ist, verbindet.

16. System (1) nach Anspruch 8, wobei das Verarbeitungsmodul ein Gehäuse (41), insbesondere starres Gehäuse, aufweist, welches Gehäuse (41) zum Tragen hinter der Ohrmuschel ausgebildet ist, insbesondre welches Gehäuse (41) an den Verlauf der Ohrmuschel vom oberen Bereich bis hin zum hinteren Bereich der Ohrmuschel angepasst ist.

17. System (1) nach einem der Ansprüche 15 - 16, wobei das Gehäuse (41) des Verarbeitungsmoduls zumindest einseitig an ein verformbares, insbesondere plastisch verformbares, Verbindungselement (40) anschließt.

18. System (1) nach Anspruch 17, wobei das verformbare Verbindungselement als ein zweites Verbindungselement (40) das Gehäuse (41) des Verarbeitungsmoduls mit dem Gehäuse (38), an dem die berührungssensitive Oberfläche der ersten Touchbar zugänglich ist, verbindet.

19. System (1) nach einem der Ansprüche 16 - 18, wobei zumindest eine der Verarbeitungseinrichtungen (2, 3) einen leitungsgebundenen Anschluss (43), bevorzugt einen mehrpoligen Anschluss, insbesondere einen magnetisch haltenden Anschluss, für einen Anschluss eines weiteren Geräts oder eines Zusatzmoduls (51) aufweist.

20. System (1) nach einem der vorangehenden Ansprüche, wobei zumindest eine der Verarbeitungseinrichtungen (2, 3) ein haptisches Modul (45) (auch Haptik-Modul (45) bezeichnet) zum Abgeben eines haptisch wahrnehmbaren Signals aufweist.

21. System (1) nach einem der vorangehenden Ansprüche, wobei zumindest eine der Verarbeitungseinrichtungen (2, 3) zum Empfangen und Verarbeiten von einer zusätzlichen Softwareapplikation oder von Audio- Ausgabedaten, die ein mit Hilfe der Verarbeitungseinrichtung (2, 3) angebbares Audiosignal, repräsentieren, ausgebildet ist.

22. System (1) nach Anspruch 21, wobei die beiden Verarbeitungseinrichtungen (2, 3) dazu ausgebildet sind, die nur bei einer der Verarbeitungseinrichtungen (2, 3) empfangene Softwareapplikation oder die nur bei einer der Verarbeitungseinrichtungen (2, 3) empfangenen Audio- Ausgabedaten mit Hilfe einer dritten Funkverbindung zu der anderen Verarbeitungseinrichtung (3, 2) zu übertragen.

23. System (1) nach einem der vorangehenden Ansprüche, wobei zumindest eine der Verarbeitungseinrichtungen (2, 3) dazu ausgebildet ist, über eine vierte Funkverbindung mit einem mobilen Benutzergerät (70) zu kommunizieren

- und diesem Benutzergerät (70) mit Hilfe der vierten Funkverbindung eine Positionsinformation bereitzustellen, wobei die Positionsinformation die Position von zumindest einer Schallquelle (60-68, 72-74) in Relation zur Position des Systems (1) angibt,

- und von diesem Benutzergerät (70) mit Hilfe der vierten Funkverbindung eine Auswahlinformation zu empfangen, wobei die Auswahlinformation angibt, welche Richtung bzw. welcher Richtungsbereich in Bezug auf die Position und/oder Orientierung des Systems (1) für die weitere Verarbeitung der Mikrofonsignale (MSI, MS2, MS3, MS4) ausgewählt ist.

24. Erstes Verfahren zum Betreiben eines Systems (1) zum Verarbeiten von Mikrofonsignalen (MSI, MS2, MS3, MS4), wobei das erste Verfahren die folgenden Verfahrensschritte aufweist, nämlich:

- ein Bereitstellen von einer ersten Gruppe (Gl) von individuellen Mikrofonsignalen (MSI, MS2) mit einer ersten Verarbeitungseinrichtung (2) und

- ein Bereitstellen von einer zweiten Gruppe (G2) von individuellen Mikrofonsignalen (MS3, MS4) mit einer zweiten Verarbeitungseinrichtung (3), wobei mit Hilfe der ersten Verarbeitungseinrichtung (2) die erste Gruppe (Gl) der Mikrofonsignale (MS3, MS4) über eine erste Funkverbindung (15) von der ersten Verarbeitungseinrichtung (2) an die zweite Verarbeitungseinrichtung (3), die zum Empfangen der ersten Gruppe (Gl) der Mikrofonsignale (MS3, MS4) ausgebildet ist, übertragen wird, und wobei mit Hilfe der zweiten Verarbeitungseinrichtung (3) die zweite Gruppe (G2) der Mikrofonsignale (MS3, MS4) über eine von der ersten Funkverbindung (15) separate zweite Funkverbindung (16) von der zweiten Verarbeitungseinrichtung (3) an die erste Verarbeitungseinrichtung (2), die zum Empfangen der zweiten Gruppe (G2) der Mikrofonsignale (MS3, MS4) ausgebildet ist, übertragen wird.

25. Zweites Verfahren zum Betreiben einer Verarbeitungseinrichtung (2), wobei das zweite Verfahren die folgenden Verfahrensschritte aufweist, nämlich:

- ein Bereitstellen von einer bei der Verarbeitungseinrichtung (2) vorliegenden Gruppe (Gl) von individuellen Mikrofonsignalen (MSI, MS2) über eine erste Funkverbindung (15) und

- ein Empfangen von einer bei einer anderen Verarbeitungseinrichtung (3) vorliegenden Gruppe (G2) von individuellen Mikrofonsignalen (MS3, MS4) über eine von der ersten Funkverbindung (15) separate zweite Funkverbindung (16).

26. Computerprogrammprodukt, mit Softwarecode, der angepasst ist, die Verfahrensschritte gemäß dem zweiten Verfahren nach Anspruch 25 auf einer programmierbaren Hardware der Verarbeitungseinrichtung (2) auszuführen.

Description:
Titel

System und Verfahren zum Verarbeiten von Mikrofonsignalen

Beschreibung

Technisches Feld

Die Erfindung betrifft ein System und Verfahren zum Verarbeiten von Mikrofonsignalen.

Hintergrund

Die WO 2021/023771 Al offenbart ein binaurales System und ein Verfahren zum Verbessern der Sprache eines oder mehrerer gewünschter Sprecher. Bei diesem System werden die auf der jeweiligen Kopfseite erfassten Mikrofonsignale mit Hilfe eines Kommunikationsinterfaces der rechten wie auch der linken Seite des Systems über einen ersten Kommunikationskanal von der linken zu der rechten Seite des Hörgerätesystems und umgekehrt übertragen. Diese Art der Übertragung der Mikrofonsignale hat sich als nachteilig erwiesen, weil z.B. durch unvorhersehbare Latenzen bei der gegenseitigen Übertragung der Mikrofonsignale die kontinuierliche Funktion des binauralen Hörgerätesystems nicht dauerhaft sichergestellt ist. Weiters wird bei dem bekannten System ein zweiter Kommunikationskanal zum Empfang von Richtungs-Informationen betreffend Audiosignalquellen von einem portablen Benutzergerät verwendet.

Die Erfindung hat sich vor diesem Hintergrund die Aufgabe gestellt, ein verbessertes System und ein verbessertes Verfahren zu schaffen.

Zusammenfassung der Erfindung

Diese Aufgabe wird durch ein System gemäß Anspruch 1 gelöst. Der Gegenstand der Erfindung ist daher ein System zum Verarbeiten von Mikrofonsignalen, das aufweist: eine erste Verarbeitungseinrichtung zum Bereitstellen von einer ersten Gruppe von individuellen Mikrofonsignalen und eine zweite Verarbeitungseinrichtung zum Bereitstellen von einer zweiten Gruppe von individuellen Mikrofonsignalen, wobei die erste Verarbeitungseinrichtung dazu ausgebildet ist, die erste Gruppe der Mikrofonsignale über eine erste Funkverbindung von der ersten Verarbeitungseinrichtung an die zweite Verarbeitungseinrichtung, die zum Empfangen der ersten Gruppe der Mikrofonsignale ausgebildet ist, zu übertragen, und wobei die zweite Verarbeitungseinrichtung dazu ausgebildet ist, die zweite Gruppe der Mikrofonsignale über eine von der ersten Funkverbindung separate zweite Funkverbindung von der zweiten Verarbeitungseinrichtung an die erste Verarbeitungseinrichtung, die zum Empfangen der zweiten Gruppe der Mikrofonsignale ausgebildet ist, zu übertragen.

Diese Aufgabe wird weiters durch ein erstes Verfahren gemäß dem Anspruch 24 gelöst. Die Erfindung betrifft daher ein erstes Verfahren zum Betreiben eines Systems zum Verarbeiten von Mikrofonsignalen, wobei das erste Verfahren die folgenden Verfahrensschritte aufweist, nämlich: ein Bereitstellen von einer ersten Gruppe von individuellen Mikrofonsignalen mit einer ersten Verarbeitungseinrichtung und ein Bereitstellen von einer zweiten Gruppe von individuellen Mikrofonsignalen mit einer zweiten Verarbeitungseinrichtung, wobei mit Hilfe der ersten Verarbeitungseinrichtung die erste Gruppe der Mikrofonsignale über eine erste Funkverbindung von der ersten Verarbeitungseinrichtung an die zweite Verarbeitungseinrichtung, die zum Empfangen der ersten Gruppe der Mikrofonsignale ausgebildet ist, übertragen wird, und wobei mit Hilfe der zweiten Verarbeitungseinrichtung die zweite Gruppe der Mikrofonsignale über eine von der ersten Funkverbindung separate zweite Funkverbindung von der zweiten Verarbeitungseinrichtung an die erste Verarbeitungseinrichtung, die zum Empfangen der zweiten Gruppe der Mikrofonsignale ausgebildet ist, übertragen wird.

Diese Aufgabe wird weiters durch ein zweites Verfahren gemäß dem Anspruch 25 gelöst. Die Erfindung betrifft daher ein zweites Verfahren zum Betreiben einer Verarbeitungseinrichtung, wobei das zweite Verfahren die folgenden Verfahrensschritte aufweist, nämlich: ein Bereitstellen von einer bei der Verarbeitungseinrichtung vorliegenden Gruppe von individuellen Mikrofonsignalen über eine erste Funkverbindung und ein Empfangen von einer bei einer anderen Verarbeitungseinrichtung vorliegenden Gruppe von individuellen Mikrofonsignalen über eine von der ersten Funkverbindung separate zweite Funkverbindung. Diese Aufgabe wird weiters durch ein Computerprogrammprodukt gemäß dem Anspruch 26 gelöst. Die Erfindung betrifft daher eine Computerprogrammprodukt, mit Softwarecode, der angepasst ist, die Verfahrensschritte gemäß dem zweiten Verfahren auf einer programmierbaren Hardware der Verarbeitungseinrichtung auszuführen.

Mit den erfindungsgemäßen Maßnahmen geht der Vorteil einher, dass die Übertragung bzw. der Austausch der Mikrofonsignale zwischen den beiden Verarbeitungseinrichtungen im Unterschied zu den bekannten Maßnahmen über jeweils eine individuelle Funkverbindung erfolgt. Hierbei ist die Situation gegeben, dass die beiden Verarbeitungseinrichtungen nicht leitungsgebunden miteinander verbunden sind, sondern im Abstand zueinander positioniert ohne Leitungsverbindung zwischen ihnen positioniert sind. Sie sind vielmehr nicht-leitungsgebunden über die Funkverbindung miteinander verbunden.

Für den Austausch der Gruppen der Mikrofonsignale kommt also für jede Gruppe der Mikrofonsignale eine separate Funkverbindung zum Einsatz, sodass jede der Funkverbindungen nur eine einzige Gruppe der Mikrofonsignale unidirektional übertragen muss. Die jeweilige Funkverbindung steht also für die jeweilige Gruppe der Mikrofonsignale priorisiert zur Verfügung und es kann die volle zu Verfügung stehende Bandbreite für diese unidirektionale Übertragung der die Mikrofonsignale repräsentierenden Nutzdaten genutzt werden. Dies schließt natürlich nicht aus, dass weitere für die unidirektionale Übertragung der Nutzdaten nötige Steuerdaten zwischen den beiden über die jeweilige Funkverbindung kommunizierenden Verarbeitungseinrichtungen bidirektional ausgetauscht werden.

Die Nutzung von zwei separaten Funkverbindungen bedeute auch, dass die höchstmögliche Datenverfügbarkeit pro Funkverbindung sichergestellt ist, weil jede der Funkverbindungen ja nur für eine Übertragungsrichtung genutzt wird und die jeweilige Funkverbindung daher von der anderen Übertragungsrichtung unberührt bleibt. Es steht also bei der jeweiligen Funkverbindung die volle Bitrate, also die maximale Verbindungsgeschwindigkeit für die unidirektionale Übertragung der Nutzdaten zur Verfügung.

Mit der unidirektionalen Übertragung geht auch der Vorteil einher, dass der dafür nötige Aufwand an Steuerdaten auf ein Minimum beschränkt ist, also der sogenannte „Handshake" möglichst einfach realisiert werden kann.

Auch lässt sich damit die Sicherheit der Datenübertragung gegenüber unbefugtem Eingriff dramatisch erhöhen, weil die Nutzung von nur einer Übertragungsrichtung pro Funkverbindung viele andernfalls mögliche Einfallstore für Hackerangriffe von vorneherein ausschließt.

Zusammengefasst stellen die erörterten Maßnahmen sicher, dass die für die weitere Verarbeitung nötigen Mikrofonsignale in möglichst hoher Qualität wie auch innerhalb kürzester Zeit unbeeinflusst voneinander zwischen den beiden Verarbeitungseinrichtungen ausgetauscht werden und somit die in der Einleitung erwähnte Problematik der unvorhersehbaren Latenzen so gut wie ausgeschlossen ist. Erst dieser Umstand sorgt dafür, dass die gesamte Schallfeldinformation, die einerseits mit der ersten Gruppe der Mikrofonsignale an einem ersten Ort und anderseits mit der zweiten Gruppe der Mikrofonsignale an einem zweiten Ort erfasst wird, so rasch wie überhaupt möglich bei der jeweiligen Verarbeitungseinrichtung zur weiteren Verarbeitung verfügbar ist. Dies liefert eine solide Grundlage für ausreichend Zeit für eine weitere (vorwiegend digitale) Verarbeitung der beiden Gruppen der Mikrofonsignale in beiden Verarbeitungseinrichtungen, sodass letztendlich die gesamte Verarbeitungskette, insbesondere inklusive komplexer Verarbeitungsschritte, derart rasch (z.B. mit einer gesamten Verarbeitungszeit im Bereich von 1 bis 10 Millisekunden) abgearbeitet werden kann, dass die dafür nötige Verarbeitungszeit für den Menschen nicht wahrnehmbar ist. Es stellt also erst der Umstand, dass der Austausch der Gruppen der Mikrofonsignal mit Hilfe der erörterten Maßnahmen extrem rasch und zuverlässig erfolgt, sicher, dass für die gesamte Verarbeitungskette ein Echtzeitverhalten vorliegt, also die durch die gesamte Verarbeitungskette auftretende Verarbeitungszeit so kurz ist, dass die Verarbeitungszeit von einem Menschen nicht mehr wahrnehmbar ist. Der rasche und zuverlässige Austausch der Gruppen der Mikrofonsignale erlaubt also nachgelagert sogar die Umsetzung von komplexen und rechenintensiven weiteren Verarbeitungsschritten, weil dafür nun schlichtweg mehr Zeit zur Verfügung steht. Weitere, besonders vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen sowie der nachfolgenden Beschreibung.

Die erste Gruppe der individuellen Mikrofonsignale tritt direkt bei der ersten Verarbeitungseinrichtung auf und wird mit Hilfe von zumindest zwei dort positionierten Mikrofonen, die den bei ihnen einfallenden Schall in die Mikrofonsignale umwandeln, generiert, wobei hierbei zumindest zwei individuelle Mikrofonsignale generiert werden. Diese zumindest zwei Mikrofonsignale sind bei der ersten Verarbeitungseinrichtung leitungsgebunden verfügbar. Die zweite Gruppe der individuellen Mikrofonsignale wird bei der ersten Verarbeitungseinrichtung von der zweiten Verarbeitungseinrichtung her per Funk empfangen und ist somit bei der ersten Verarbeitungseinrichtung funkbasiert verfügbar.

Die zweite Gruppe der individuellen Mikrofonsignale tritt direkt bei der zweiten Verarbeitungseinrichtung auf und wird mit Hilfe von zumindest zwei dort positionierten Mikrofonen, die den bei ihnen einfallenden Schall in die Mikrofonsignale umwandeln, generiert, wobei hierbei zumindest zwei individuelle Mikrofonsignale generiert werden. Diese zumindest zwei Mikrofonsignale sind bei der zweiten Verarbeitungseinrichtung leitungsgebunden verfügbar. Die erste Gruppe der individuellen Mikrofonsignale wird bei der zweiten Verarbeitungseinrichtung von der ersten Verarbeitungseinrichtung her per Funk empfangen und ist somit bei der zweiten Verarbeitungseinrichtung funkbasiert verfügbar.

Das System kann beispielsweise bei einem Studioaufnahmesystem, bei einem Konzertaufnahmesystem oder auch bei einem Konferenzaudiosystem zum Einsatz kommen. Bei einer bevorzugten Ausbildung des Systems handelt es sich um ein binaurales Hörgeräte-System, wobei die erste Verarbeitungseinrichtung zum Tragen an der Position des linken Ohrs eines Kopfes einer Person und wobei die zweite Verarbeitungseinrichtung zum Tragen an der Position des rechten Ohrs des Kopfes der Person ausgebildet ist. In dieser Ausbildung können die Verarbeitungseinrichtungen als sogenannte „Hearables" oder auch „intelligente" Kopfhörer bzw. Hörgeräte bezeichnet werden. Das Hörgeräte- System weist somit üblicherweise zwei Hörgeräte auf, also eines für das linke Ohr und eines für das rechte Ohr einer Person. Die Hörgeräte sind dann derart ausgebildet bzw. geformt, dass man sie ganz allgemein am Ohr (auch bekannt unter dem Begriff „Hinter-dem-Ohr-Hörgeräte", auch unter dem Begriff „Receiver-In-Canal (RIO) hearing aid" bekannt) oder auch im Ohr (auch bekannt unter dem Begriff „Im-Ohr-Hörgeräte") tragen kann. Sogenannte Im-Ohr-Hörgeräte können derart schlank ausgebildet sein, dass sie in den äußeren Gehörgang eingeführt werden können. Hinter-dem-Ohr- Hörgeräte können bogenförmig ausgebildet sein, damit man sie zwischen der Hörmuschel und der Schädeldecke positionieren kann, also dass sie die Hörmuschel bzw. das Ohr am oberen und/oder am hinteren Rand bereichsweise umgreifen und somit zuverlässig dort gehalten sind.

Unter einem binauralen Hörgeräte-System versteht der Fachmann grundsätzlich ein Hörgeräte-System, das einer von Schwerhörigkeit betroffenen Person ein möglichst natürliches beidseitiges Hören ermöglicht. Hierfür verstärkt ein binaurales Hörgeräte-System einseitig (also für ein Ohr) oder beidseitig (also für beide Ohren) die Lautstärke entsprechend der Einschränkung des jeweiligen Ohres, sodass sich eine natürliche Geräuschwahrnehmung für die das binaurale Hörgeräte-System tragende Person einstellt. Darüber hinaus können binaurale Hörgeräte-Systeme dazu ausgebildet sein, Funktionen wie eine Verstärkung von bestimmten Geräuschen, eine Lokalisierung von bestimmten Geräuschen, eine Unterdrückung von bestimmten störenden Geräuschen oder auch ein akustisches Fokussieren auf bestimmte Stimmen oder Geräusche bereitzustellen.

Das hier präsentierte erfindungsgemäße binaurale Hörgeräte- System ist dazu ausgebildet, akustische Audiosignale an beiden Seiten des Kopfes aufzunehmen und als Mikrofonsignale von beiden Seiten des Kopfes auf die jeweils andere Seite des Kopfes abzugeben, zu verarbeiten und je nach Bedarf der das binaurale Hörgeräte-System verwendenden Person an das eine Ohr oder an beide Ohren ein für das entsprechende Ohr individuell modelliertes Signal zu übermitteln.

Das so zum jeweiligen Ohr übermittelte Signal wird dort für die Person wahrnehmbar wiedergegeben. Hierfür hat es sich als vorteilhaft erwiesen, dass zumindest eine Verarbeitungseinrichtung, bevorzugt beide Verarbeitungseinrichtungen, jeweils ein Ausgabemodul, insbesondere einen Lautsprecher und/oder ein Ausgabemodul zum Ansteuern eines Implantats, aufweist. Bei dem Implantat kann es sich beispielsweise um ein Cochlea- Implantat oder um ein Hirnstamm-Implantat handeln. Bevorzugt wird als das Ausgabemodul jedoch ein Lautsprecher verwendet.

Ganz allgemein kann bei dem System das Ausgabemodul mehrere Schallabgabeeinrichtungen, wie z.B. Lautsprecher aufweisen. Hierbei können zwei für die binaurale Ausgabe oder Stereo-Ausgabe vorgesehen sein oder eben mehr als zwei für eine räumliche Schallabgabe in einer höheren Ordnung.

Zur wechselseitigen Übertragung der Gruppen der Mikrofonsignale kann jede der Verarbeitungseinrichtungen genau ein Funkmodul aufweisen, wobei für die erste Funkverbindung ein erster Funkkanal eines Frequenzbandes genutzt wird und wobei für die davon separate zweite Funkverbindung ein von dem ersten Funkkanal unterschiedlicher zweiter Funkkanal (im selben oder in einem anderen Frequenzband) genutzt wird. Im jeweiligen Funkkanal arbeitet das jeweilige Funkmodul also entweder als Sender oder als Empfänger. Es muss also zwischen diesen beiden Funktionen hin- und her-wechseln bzw. „multiplexen".

In einer bevorzugten Ausbildungsform weist bei dem System jedoch die erste Verarbeitungseinrichtung ein erstes Funkmodul zum Aussenden der ersten Gruppe der Mikrofonsignale auf und die zweite Verarbeitungseinrichtung weist ein zweites Funkmodul zum Empfangen der ersten Gruppe der Mikrofonsignale auf. Weiterhin weist gemäß dieser bevorzugten Ausbildungsform bei dem System die zweite Verarbeitungseinrichtung ein drittes Funkmodul zum Aussenden der zweiten Gruppe der Mikrofonsignale auf und die erste Verarbeitungseinrichtung weist ein viertes Funkmodul zum Empfangen der zweiten Gruppe der Mikrofonsignale auf. Es liegen also pro Verarbeitungseinrichtung jeweils ein separates Funkmodul zum Senden und ein separates Funkmodul zum Empfangen vor, sodass die beiden separaten Funkverbindungen ohne ein Hin- und Herwechseln zwischen dem Empfangsmodus und dem Sendemodus bei dem jeweiligen Modul abgewickelt werden können. Die erste Funkverbindung existiert also zwischen dem ersten Funkmodul und dem zweiten Funkmodul, wohingegen die zweite Funkverbindung zwischen dem dritten Funkmodul und dem vierten Funkmodul existiert. Die jeweilige Funkverbindung kann unterschiedliche Frequenzbänder verwenden. Bevorzugt wird ein einziges Frequenzband verwendet, wobei jedoch systematisch unterschiedliche Kanäle für das Übertragen der jeweiligen Gruppe der Mikrofonsignale benutzt werden.

Zum Bereitstellen der Funkverbindung können unterschiedliche dem Fachmann grundsätzlich bekannte Funktechnologien sowie Kommunikationsstandards wie beispielsweise Near Field Communication, kurz NFC, ZigBee, Wi-Fi, oder auch ein proprietäres Protokoll, Anwendung finden. Die Funkmodule sind entsprechend der jeweiligen Funktechnologie ausgebildet, wobei ggf. eine spezielle Software (Treibersoftware), die das jeweilige Protokoll bereitstellt, zum Einsatz kommt.

Als besonders vorteilhaft hat es sich erwiesen, wenn es sich bei den Funkverbindungen um Bluetooth-Funkverbindungen handelt. Hierfür sind die Funkmodule als Bluetooth-Funkmodule ausgebildet.

Des Weiteren hat es sich als besonders vorteilhaft herausgestellt, dass pro Verarbeitungseinrichtung jeweils ein Funkmodul als Bluetooth- Master-Funkmodul konfiguriert ist, mit dessen Hilfe die jeweilige Gruppe der Mikrofonsignale von der betreffenden Verarbeitungseinrichtung an die andere Verarbeitungseinrichtung ausgesandt wird, und ein Funkmodul als Bluetooth- Slave-Funkmodul konfiguriert ist, mit dessen Hilfe die jeweilige Gruppe der Mikrofonsignale von der anderen Verarbeitungseinrichtung her empfange wird.

In einer besonders bevorzugten Ausbildungsform weist jede Verarbeitungseinrichtung zwei Bluetooth 5.2 Module, insbesondere realisiert als Bluetooth Low Energy Audio Module (kurz BT-LE Audio-Module), auf. Es wird das Multi-Link Protokoll verwendet. Damit können mehrere Bluetooth- Funk-Module gemeinsam in Gruppen verwendet werden. Die Bluetooth- Funkmodule können jeweils Master einer Gruppe sein und somit als Audio Broadcaster dienen oder als Slave konfiguriert und somit die Audiosignale des Masters empfangen. Jede Verarbeitungseinrichtung beinhaltet somit zwei Funkmodule. Eines ist als Bluetooth-Master definiert, an diesem sind die zwei Mikrofone leitungsgebunden angeschlossen. Das zweite Funkmodul ist als Bluetooth-Slave definiert und empfängt die Mikrofonsignale des Bluetooth- Masters der jeweils anderen Verarbeitungseinrichtung per Bluetooth-Funk.

Bluetooth 5.2 hat sich als besonders vorteilhaft erwiesen, weil somit die sogenannte „Auracast" Funktionalität unterstützt wird, die deshalb sehr interessant ist, weil damit Geräte, also auch die Verarbeitungseinrichtungen, öffentliche Audiostreams abgeben und empfangen können und somit eine Interaktionsmethode mit einer externen App ermöglicht wird.

Die Master-/Slave-Konfiguration sorgt dafür, dass die Rahmenbedingungen für die anfallenden Aktivitäten geschaffen sind, um sie gemeinsam zu erledigen. Der Master diktiert diese Regeln bzw. Rahmenbedingungen. Tasks können so an beliebig viele Slaves delegiert werden, um eine koordinierte Aufgabenverteilung zu erreichen. Ein Regelwerk, welches für beide Seiten gültig ist, wird definiert, damit eine Zusammenarbeit möglich ist. Genau dafür eignet sich die Master-/Slave- Konfiguration. Die Master-/Slave-Konfiguration sorgt weiters dafür, dass für die Zwecke der unidirektionalen Übertragung jeweils ein Antennenpaar zur Verfügung steht, sodass ein „Multiplexen" und dergleichen vermieden wird.

Grundsätzlich kann für jeden Kommunikationsbedarf die jeweilige Funkverbindung neu aufgebaut werden. Im Sinne einer möglichst guten und raschen Verfügbarkeit der Funkverbindung hat es sich jedoch als besonders vorteilhaft erwiesen, dass die beiden Verarbeitungseinrichtungen zur Bereitstellung einer dauerhaften ersten und zweiten Funkverbindung ausgebildet sind. Damit geht die Wirkung einher, dass immer eine Empfangs- bzw. Sendebereitschaft vorliegt, weil die dafür nötige Verbindung nur initial aufgebaut werden muss und danach kontinuierlich zur Verfügung steht.

Im Fall von einem Modul pro Verarbeitungseinrichtung muss dieses Modul sowohl die Empfangs- wie auch Sendefunktion wie zuvor erörtert „gemultiplext" bereitstellen.

Im Fall von jeweils zwei Modulen pro Verarbeitungseinrichtung - so wie dies zuvor erörtert wurde - wird das „Multiplexen" vermieden, weil jeweils ein individuelles Modul der ersten Verarbeitungseinrichtung und ein individuelles Modul der zweiten Verarbeitungseinrichtung diese Kombination aus Sende- und Empfangsbereitschaft in einer dauerhaft gepaarten Konfiguration bereitstellt.

In dieser Konfiguration realisiert das System durch seinen konstanten Datenaustausch über die jeweiligen Modulpaare, wobei ein erstes Modulpaar durch das erste Funkmodul und das zweite Funkmodul gegeben ist und ein zweites Modulpaar durch das dritte Funkmodul und vierte Funkmodul gegeben ist, zwischen den beiden Verarbeitungseinrichtungen ein drahtloses, phasensynchrones Mikrofonsignal-Arrays für die beiden Verarbeitungseinrichtungen, sodass bei jeder Verarbeitungseinrichtung phasensynchron alle zwei Gruppen der Mikrofonsignale für die über den reinen Austausch der Mikrofonsignale hinausgehende weitere Verarbeitung verfügbar sind.

Hierbei kann es zusätzlich zu den erwähnten Maßnahmen auch hilfreich sein, dass die jeweiligen (digitalisierten) Mikrofonsignale z.B. auch zusätzlich Synchronisationsdaten aufweisen bzw. diese zusätzlich im Datenstrom der Mikrofonsignale enthalten sind, damit der zeitliche Zusammenhang der individuellen Mikrofonsignale immer auch Anhand dieser Daten in Echtzeit rekonstruierbar ist. Es können die dafür nötigen Synchronisationsdaten bzw. Informationen auch separat zu den Mikrofonsignalen über die jeweilige Funkverbindung übertragen werden. Gegebenenfalls kann auch eine weitere separate Funkverbindung dafür benutz werden.

Weiterhin hat es sich als vorteilhaft erwiesen, dass nicht nur der zeitliche Zusammenhang der Mikrofonsignale für die jeweilige Verarbeitung in der Verarbeitungseinrichtung angegeben wird, sondern auch deren jeweilige Verarbeitung in der jeweiligen Verarbeitungseinrichtung derart über die Verarbeitungseinrichtungen hinweg synchronisiert ist, dass die Abgabe der daraus generierten Abgabesignale über das Ausgabemodul derart synchron erfolgt, dass Abweichungen davon für das menschliche Gehör nicht auflösbar bzw. wahrnehmbar sind. Bevorzugt erfolgt also eine Synchronisation der beiden Verarbeitungseinrichtungen untereinander. Zu diesem Zweck können die beiden Verarbeitungseinrichtungen mit einem für beide Verarbeitungseinrichtungen geltenden Verarbeitung-Synchronisation-Signal betrieben werden. Sie können also mit einem gemeinsamen Taktsignal betrieben werden oder beide Verarbeitungseinrichtungen können gemäß einer gemeinsamen Zeitbasis betrieben werden usw. Die Verfügbarkeit des Verarbeitung-Synchronisation-Signals für beide Verarbeitungseinrichtungen kann durch eine Funkkommunikation zwischen den beiden Verarbeitungseinrichtungen erfolgen. Die Funkkommunikation für die Übertragung des Verarbeitung-Synchronisation-Signals kann auf dieselbe Weise wie die Übertragung der Synchronisationsdaten erfolgen. Auch können die Synchronisationsdaten das Verarbeitung-Synchronisation-Signal beinhalten.

Was die weitere Verarbeitung der Gruppen der Mikrofonsignale betrifft, hat es sich als vorteilhaft erwiesen, dass bei dem System die erste Verarbeitungseinrichtung dazu ausgebildet ist, die erste Gruppe der Mikrofonsignale zusammen mit der per Funkverbindung empfangenen zweiten Gruppe der Mikrofonsignale phasensynchron zu verarbeiten, und dass bei dem System die zweite Verarbeitungseinrichtung dazu ausgebildet ist, die zweite Gruppe der Mikrofonsignale zusammen mit der per Funkverbindung empfangenen ersten Gruppe der Mikrofonsignale phasensynchron zu verarbeiten. Dies stellt eine zeitlich symmetrische Verarbeitung der beiden Gruppen der Mikrofonsignale pro Verarbeitungseinrichtung wie auch verarbeitungseinrichtung-übergreifend im gesamten System sicher. Ausgehend von der zuvor erörterten vorteilhaften Art der wechselseitigen Übertagung steht nun auch für diese Art der weiterführenden Verarbeitung ausreichend Zeit zur Verfügung, wobei die jeweilige Rechenleistung der jeweiligen Verarbeitungseinrichtung für die dort individuell durchzuführende Signalweiterverarbeitung aller Mikrofonsignale zur Verfügung steht. Phasensynchron bedeutet im vorliegenden Kontext, dass immer nur zeitgleich auftretende Schallereignisse, die ja in Form der Mikrofonsignale erfasst werden, miteinander verarbeitet werden. In der Signalverarbeitung aller Mikrofonsignale wird vorteilhafterweise der Abstand der beiden Verarbeitungseinrichtungen zueinander, der ja durch den Abstand der beiden Ohren im Wesentlichen definiert ist, mitberücksichtigt.

Wie erwähnt, werden die Mikrofonsignale durch individuelle Mikrofone generiert. Hierbei ist es vorteilhaft, wenn das erste Funkmodul dazu ausgebildet ist, zumindest ein erstes Mikrofonsignal von einem ersten Mikrofon und ein zweites Mikrofonsignal von einem zweiten Mikrofon zu empfangen und als die erste Gruppe von individuellen Mikrofonsignalen zu übertragen und das dritte Funkmodul dazu ausgebildet ist, zumindest ein drittes Mikrofonsignal von einem dritten Mikrofon und ein viertes Mikrofonsignal von einem vierten Mikrofon zu empfangen und als die zweite Gruppe von individuellen Mikrofonsignalen zu übertragen. In dieser Basiskonfiguration lässt sich eine dreidimensionale Interpretation der Gesamtheit der Mikrofonsignale durchführen. Hierfür ist es vorteilhaft, wenn die Mikrofone derart ausgebildet und orientiert sind, dass bei jeder Verarbeitungseinrichtung eine Richtcharakteristik des einen Mikrofons im Wesentlichen nach (schräg) vorne hin orientiert ist und eine Richtcharakteristik des anderen Mikrofons nach (schräg) hinten hin orientiert ist. Somit können beispielsweise die Richtcharakteristik des ersten Mikrofons und des dritten Mikrofons nach (schräg) vorne hin orientiert sein und die Richtcharakteristik des zweiten Mikrofons und des vierten Mikrofons nach (schräg) hinten hin orientiert sein. Hierbei wurde vorwiegend auf die Orientierung in der horizontalen Ebene eingegangen. Die Orientierungen der einzelnen Mikrofone kann jedoch auch aus dieser Ebene herausgeschwenkt sein. Ebenso können Kombinationen der erwähnten Orientierungen vorliegen. Wird ein Hörgeräte-System mit dieser Mikrofon-Anordnung von einer Person getragen, sodass jeweils eine Verarbeitungseinrichtung am linken und eine Verarbeitungseinrichtung am rechten Ohr getragen wird, steht bezogen auf den Kopf der Person jeweils ein Mikrofon mit einer Richtcharakteristik zum Geräuscherfassen nach links vorne, nach links hinten, nach rechts vorne und nach rechts hinten bereit. Dies ermöglicht zumindest in erster Annäherung eine dreidimensionale Erfassung von Schallquellen in der Umgebung des Kopfs und eine weiterführende Verarbeitung in diesem Kontext.

Erwähnt sei in diesem Zusammenhang auch, dass mehr als zwei Mikrofone pro Verarbeitungseinrichtung zur Generierung von mehr als zwei individuelle Mikrofonsignale aufweisende Gruppen der Mikrofonsignale verwendet werden können, insbesondere mit weiteren sich von bisher erwähnten Orientierungen unterscheidenden Orientierungen, was eine verbesserte Auflösung für die dreidimensionale Erfassung des Schallfelds ergibt.

Die Verarbeitung der Mikrofonsignale wird bevorzugt von jeder Verarbeitungseinrichtung für alle bei ihr verfügbaren Mikrofonsignale durchgeführt.

Es hat sich als vorteilhaft erwiesen, dass jede der Verarbeitungseinrichtungen ein Verarbeitungsmodul aufweist, welches zur Verarbeitung der beiden Gruppen der Mikrofonsignale ausgebildet ist.

Damit geht der Vorteil einher, dass die Funktion des Funkverkehrs zwischen den Verarbeitungseinrichtungen von dem „Data-Processing", also von der weiteren Verarbeitung der Mikrofonsignale in der jeweiligen Verarbeitungseinrichtung, getrennt wird. Bevorzugt existiert also neben den Funkmodulen, welche die jeweiligen Mikrofonsignale direkt Empfangen und weiterleiten, ein separates Verarbeitungsmodul für die weiterführenden Mikrofonsignal-Verarbeitungen. Ein solches Verarbeitungsmodul kann durch eine diskrete Logikschaltung, einen Mikroprozessor, einen Mikrocontroller oder ähnliches realisiert sein.

Zum Verarbeiten der Mikrofonsignale können unterschiedliche grundsätzlich bekannte Verfahren oder Methoden bzw. Algorithmen Anwendung finden. So können die Mikrofonsignale beispielsweise gemäß der „Dolby Atmos"- Technologie oder der Aureal 3-Dimensional-Technologie, kurz A3D-Technologie oder dem Auro-3D-Format weiterverarbeitet werden.

Als besonders vorteilhaft hat es sich erwiesen, dass jede der Verarbeitungseinrichtungen zum Verarbeiten der zwei Gruppen der Mikrofonsignale gemäß dem Ambisonics-Format ausgebildet ist.

Der große Vorteil ergibt sich insbesondere dadurch, dass dieses Format weit verbreitet ist und daher auch weitgehend Akzeptanz findet. Damit lässt es sich unkompliziert anwenden, weil bereits definierte Vorgehensweisen für die Signalverarbeitung vorhanden sind. Ambisonics ist also ein dem Fachmann grundsätzlich bekanntes voll-sphärisches Audioformat und kommt insbesondere im B-Format zur Anwendung.

Die Verwendung des Ambisonics-Formats erlaubt weiterhin eine einfache und bekannte Nutzung der erfassten Mikrofonsignale. So können diese beispielsweise aufgenommen und als Aufnahmedaten gespeichert werden. Im Weiteren können diese Aufnahmedaten systemintern oder durch andere Geräte weiterverarbeitet werden. So können die Aufnahmedaten zum Beispiel von sogenannten „(z.B. Video- und/oder Audio-)Content Creator" verwendet werden, um die aufgenommenen Aufnahmedaten in einer eigenen (proprietären) Verarbeitungsumgebung zu verwenden.

Vorteilhafterweise wird das Ambisonics-Format im Kontext der Erfindung in der weiteren systeminternen Verarbeitungskette verwendet, um den Einsatz von einem oder mehreren virtuellen Mikrofonen zu ermöglichen, sodass mit Hilfe des Systems rein softwarebasiert, also ohne weitere externe Hilfsmittel die Richtcharakteristik des jeweiligen virtuellen Mikrofons auf individuelle Schallquellen (z.B. Geräte, Fahrzeuge oder Personen) im Schallerfassungsbereich fokussierbar ist. Dies hat sich insbesondere bei dem Einsatz des Systems als binaurales Hörgeräte -System zur Unterstützung von hörbeeinträchtigten Personen als vorteilhaft erwiesen.

Bereits die oben erwähnte Basiskonfiguration bestehend aus den beiden Mikrofonen pro Verarbeitungseinrichtung bildet die Grundlage für eine Audiosignalverarbeitung gemäß dem grundsätzlich bekannten Ambisonics- Format in der ersten Ordnung. Gegebenenfalls ist eine Transformation der Mikrofonsignale von einem Koordinatensystem in ein anderes nötig, um die bevorzugte Anordnung und/oder Ausrichtung der Mikrofone für die Benutzung des Ambisonics-Formats konventionskonform zugänglich zu machen. Für den Fall, dass mehr Mikrofone als in der Basiskonfiguration vorhanden sind, ggf. auch entsprechende Orientierungen bzw. Richtcharakteristiken vorliegen, können auch höhere Ordnungen des Ambisonics-Formats verarbeitet werden. Es sei angemerkt, dass auch bei der Verwendung anderer Formate die Nutzung mehrerer Mikrofone eine Beschreibung einer höheren Ordnung der sphärischen Harmonik erlaubt.

Die vollautomatische oder auf User-Interaktion basierende dreidimensionale Interpretation der Mikrofonsignale erlaubt es, eine bestimmte Schallquelle sowie die Richtung der Schallquelle bezogen auf die jeweilige Orientierung der Verarbeitungseinrichtung auszumachen. Die Geräusche dieser Schallquelle können nun für die Person je nach Vorgabe oder Eigenschaft der Geräusche verstärkt oder ausgeblendet werden.

Die Richtung der Schallquelle kann hierbei vollautomatisch mittels des (an sich im Kontext von Ambisonics bekannten) Vorgangs des „Beamforming" ermittelt werden. Unter dem Beamformig versteht man allgemein das Orientieren einer Richtcharakteristik (eines im Kontext von Ambisonics bekannten virtuellen Mikrophons), ggf. auch das Modellieren der Richtcharakteristik (dieses virtuellen Mikrofons).

Wird die Schallquelle oder das System durch den Raum bewegt, muss die Veränderung der Position der Schallquelle gegenüber dem System bzw. dessen Orientierung, die sich bei einem Hörgerät aus der Orientierung des Kopfes ergibt, berücksichtigt werden, um weiterhin auf die zuvor fokussierte Schallquelle fokussiert zu bleiben und deren Schall zu verstärken oder auszublenden. Auch für diesen - ggf. auch automatisierten - Vorgang kann das erwähnte „Beamforming" bei einem virtuellen Mikrofon eingesetzt werden. So kann das Schallfeld permanent abgetastet werden und die Position der „wandernden" Schallquelle verfolgt werden.

Da dies jedoch sehr rechenintensiv ist, hat es sich als besonders vorteilhaft erwiesen, dass zumindest eine der Verarbeitungseinrichtungen, bevorzugt beide Verarbeitungseinrichtungen, einen Lagesensor zum Bereitstellen eines Lagesensorsignals, bevorzugt einen elektro-mechanischen Lagesensor, besonders bevorzugt einen Beschleunigungssensor und/oder ein Gyroskop, aufweist und dazu ausgebildet ist, die Mikrofonsignale unter Berücksichtigung des Lagesensorsignals zu verarbeiten.

Ist der Lagesensor nur einseitig vorhanden, kann sein Lagesensorsignal per Funk an die andere Verarbeitungseinrichtung kommuniziert werden, um auch dort zur Verarbeitung verfügbar zu sein.

Der Lagesensor macht alle Bewegungen der Verarbeitungseinrichtung mit und generiert ein davon abhängiges Lagesensorsignal. Jeder Lagesensor ist hierbei bevorzugt mit dem Verarbeitungsmodul gekoppelt und stellt so das Lagesensorsignal dort zur Verfügung. Das Verarbeitungsmodul erhält also das Lagesensorsignal und kann dies bei der Verarbeitung der Mikrofonsignale berücksichtigen.

Somit kann beispielsweise auch weiterhin die Stimme einer redenden Person fokussiert und gegenüber sonstigen Geräuschen verstärkt werden, auch wenn die redende Person und/oder die das System tragende Person eine Positions- oder Orientierungsänderung vornimmt. Somit ist beispielsweise eine Unterhaltung während eines Spaziergangs möglich, bei der die das System tragende Person mit Ihrem Blick zwischen der redenden Person und dem Gehweg hin und her schwenkt. Durch das Lagesensorsignal, das die Kopfdrehung beschreibt, kann die jeweilige Verarbeitungseinrichtung bzw. das jeweilige Verarbeitungsmodul, bei der Auswertung der Mikrofonsignale diese Bewegung berücksichtigen und kontinuierlich den Fokus auf die redende Person halten, also ihre Stimme kontinuierlich gegenüber den sonstigen Geräuschen verstärken. Die durch den Lagesensor erhaltenen Daten, also insbesondere durch das Gyroskop und/oder den Beschleunigungssensor erhaltene Daten, werden also dafür genutzt, die Lage oder die Änderung der Lage einer Schallquelle relativ zur Person, die das System nutzt, zu bestimmen. Es wird also die Bewegung der Person kompensiert. Diese Information kann nun beispielweise verwendet werden, um die Schallquelle zu „fixieren" und die Geräusche dieser Schallquelle gezielt zu verstärken oder zu unterdrücken, selbst wenn sich die Person gegenüber der Schallquelle bewegt.

Zusammengefasst wird mit Hilfe des Gyroskops die Drehung um die drei Raumachsen gemessen und diese Messung fließt in eine Rotationsmatrix ein, die das erfasste Schallfeld dreht, während die Referenzrichtung vom Hörer stabil bleibt. So bleibt das virtuelle Mikrofon immer auf eine Quelle gerichtet, unabhängig von der Kopfausrichtung des Benutzers.

Die „Fixierung" der Schallquelle kann autonom bzw. automatisch erfolgen. Hierfür kann beispielsweise mittels Mustererkennung, insbesondere mittels Stimmerkennung, eingeschätzt werden, ob es sich bei einer Schallquelle um eine menschliche Stimme bzw. um Sprache handelt. Dies ermöglicht eine unkomplizierte Verwendung des Systems und vereinfacht somit die Kommunikation mit einer anderen Person.

Weiterhin kann zur Stabilisierung der gewünschten Hörrichtung jedoch auch so vorgegangen werden, dass einfach jene Mikrofonsignale, die von Mikrofonen stammen, welche nicht in die gewünschte Richtung orientiert sind, gedämpft werden. Auch können jene Mikrofonsignale, die von Mikrofonen stammen, welche in die gewünschte Richtung orientiert sind, verstärkt werden. Auch können diese Maßnahmen kombiniert zum Einsatz kommen und für die jeweiligen Mikrofone dynamisch angepasst werden, sodass die gewünschte Hörrichtung trotz Kopfwendungen beibehalten wird.

Sind in einem Raum jedoch mehrere Stimmen zu hören, deren Richtung, aus der sie eintreffen, dann auch auf automatische Weise identifiziert werden, ist es vorteilhaft, wenn der Benutzer des Systems die Möglichkeit hat, mittels Benutzerinteraktion seinen Fokus auf eine Person, bzw. eine Schallquelle zu lenken oder auch gezielt eine Auswahl von Personen oder Schallquellen im akustischen Fokus zu halten.

Als Lagesensor kann jedoch auch ein LIDAR-Sensor (Light Detection and Ranging oder Light Imaging, Detection and Ranging), ein Radar-Sensor oder ein Infrarot-Sensor usw. zur Anwendung kommen.

Gemäß einem weiteren Aspekt der Erfindung ist es vorteilhaft, dass zumindest eine Verarbeitungseinrichtung, bevorzugt beide Verarbeitungseinrichtungen, ein Eingabemodul zum Erfassen einer Benutzerinteraktion aufweist und die Verarbeitungseinrichtung dazu ausgebildet ist, die Mikrofonsignale unter Berücksichtigung der erfassten Benutzerinteraktion zu verarbeiten.

Das Eingabemodul kann hierfür Knöpfe, Schalter oder Taster aufweisen, die eine haptische Benutzerinteraktion erfassen und dieses Ereignis elektronisch einer weiteren Verarbeitung durch die jeweilige Verarbeitungseinrichtung zugänglich machen.

Das Eingabemodul kann eine Kamera aufweisen oder als Kamera ausgebildet sein. Ein solches Eingabemodul kann beispielsweise eine Hand- Geste als Benutzerinteraktion erfassen. Hierfür kann die Verarbeitungseinrichtung dazu ausgebildet sein, Gegenstände, also insbesondere die Hand bzw. deren Bewegung oder auch die Position oder Kombination der Fingerausrichtungen, in erfassten Bilddaten mittels Mustererkennung zu erkennen.

Es hat sich hierbei als vorteilhaft erwiesen, dass das Eingabemodul dazu ausgebildet ist, Benutzerinteraktionen innerhalb der Ohrmuschel zu erfassen oder vor der Ohrmuschel zu erfassen oder entlang des vorderen Rands der Ohrmuschel, insbesondere hin zum oberen Rand, zu erfassen.

Dies ermöglicht es dem Benutzer des Systems, mit möglichst natürlichen Bewegungen die Benutzerinteraktion auszulösen. Um die Benutzerinteraktion in diesem Bereich zu erfassen, ist es vorteilhaft, dass ein Erfassungselement des Eingabemodul dazu ausgebildet ist, in der Ohrmuschel getragen zu werden. So kann das Eingabemodul eine Kamera aufweisen, die aus der Ohrmuschel heraus die Benutzerinteraktion vor der Ohrmuschel erfasst. Der Benutzer kann so mit einfachen Handgesten das System steuern.

Besonders bevorzugt weist das Eingabemodul zumindest eine Touchbar auf oder ist als Touchbar ausgebildet.

Im Unterschied zu Knöpfen, Schaltern oder Tastern muss bei einer Touchbar kein fix positionierter Aktuator bewegt werden. Vielmehr reicht bei der Touchbar eine einfache Berührung ihrer berührungssensitiven Oberfläche, weil die Touchbar zur kapazitiven Erfassung der Berührung ausgebildet ist.

Dies ermöglicht ein breites Spektrum an Benutzerinteraktionen auf kleinstem Raum wobei die Benutzerinteraktion von der interagierenden Person gefühlt bzw. gespürt wird, weil sie ja die Touchbar berühren muss. So können die Benutzerinteraktionen verschiedene Folgen von Tipp-Bewegungen und Wischbewegungen in verschiedene Richtungen an verschiedenen Stellen der Touchbar sein. Es wird also nur ein minimaler Platz benötigt, um dem Benutzer viele unterschiedliche Eingaben zu ermöglichen.

Innerhalb der berührungssensitiven Oberfläche können hierfür Berührungszonen auf der Touchbar hard- bzw. softwaregesteuert definiert werden bzw. auch während des Betriebs angepasst oder verändert werden, wodurch virtuelle, individuell definierbare Schaltflächen gebildet werden, die mit Funktionen der Verarbeitungseinrichtung belegt sind, z.B. Umschalten zwischen vordefinierten Profilen (zur Steuerung der Mikrofonsignalverarbeitung). Dies ermöglicht es, Profile gezielt und rasch anwählen zu können oder auch die Auswahl der Profile (für eine Signalverarbeitungskette zur Verarbeitung der Mikrofonsignale) situationsspezifisch automatisiert anzupassen.

Die Touchbar ist bevorzugt ebenfalls dazu ausgebildet, Benutzerinteraktionen innerhalb der Ohrmuschel zu erfassen oder vor der Ohrmuschel zu erfassen oder entlang des vorderen Rands der Ohrmuschel, insbesondere hin zum oberen Rand, zu erfassen und ist hierfür bevorzugt innerhalb der Ohrmuschel platziert. Bevorzugt ist die Touchbar entsprechend der jeweiligen Anatomie geformt ausgebildet und am vorderen Rand der Ohrmuschel positioniert, wo eine unkomplizierte und intuitive Berührung von der Seite her möglich ist. Der Arm muss dabei weniger weit gehoben werden und die Finger der Hand müssen weniger stark gekrümmt werden, als dies der Fall wäre, wenn die äußere Ausprägung der Touchbar entlang der hinteren Ohrmuschel positioniert wäre und dort auch nur von hinten her berührt werden kann. Dies ist insbesondere für ältere Menschen wichtig, deren Bewegungsfähigkeit üblicherweise eingeschränkt ist.

Um eine einfache Anpassbarkeit an die individuellen anatomischen Verhältnisse des Ohrs zu ermöglichen, hat es sich als vorteilhaft erwiesen, dass ein Gehäuse, an dem eine berührungssensitive Oberfläche einer ersten Touchbar zugänglich ist, zumindest einseitig, bevorzugt jedoch beidseitig, an ein verformbares, insbesondere plastisch verformbares, Verbindungselement anschließt. Somit lässt sich die Lage oder Orientierung der berührungssensitiven Oberfläche gezielt verändern bzw. einstellen. Bevorzugt ist das Gehäuse röhrenförmig oder stabförmig ausgebildet, damit die berührungssensitive Oberfläche gut positionierbar und leicht zu berühren ist. Soweit die berührungssensitive Oberfläche sich im Wesentlichen entlang der gesamten Länge des Gehäuses (abgesehen von einem einfassenden Rand) erstreckt, lässt sich hier eine möglichst große Fläche der berührungssensitiven Oberfläche bereitstellen, sodass diese in weiterer Folge auch für komplexe Funktionssteuerungen bzw. Menüfunktionen, bei denen es nicht nur um das reine Antippen der berührungssensitiven Oberfläche geht, zur Verfügung steht.

Hierbei ist es besonders vorteilhaft, dass das verformbare Verbindungselement als ein erstes Verbindungselement ein Gehäuse eines signalabgebenden Teils des Ausgabemoduls mit einem Gehäuse, an dem die berührungssensitive Oberfläche der ersten Touchbar zugänglich ist, verbindet.

Bevorzugt folgt die Form des Verbindungselements einem kontinuierlichen Übergang zwischen der Form des einen Gehäuses hin zu der Form des anderen Gehäuses. Die Form ist also räumlich gestaltet und kann daher im Unterschied zu üblicherweise zum Einsatz kommenden drahtartigen Verbindungen andere Kräfte als nur Zugkräfte aufnehmen, also insbesondere Biegebelastungen aufnehmen und zwischen den benachbarten Elementen (Ausgabemodul / Eingabemodul) übertragen.

Dies erlaubt eine zuverlässige Positionierung des schallabgebenden Teils des Ausgabemoduls an jener Position, wo die Ausgabe am wirkungsvollsten erfolgen soll. So kann zum Beispiel der Lautsprecher für die Schallabgabe im Ohr stabil haltend dort platziert werden. Gleichzeitig kann das für die Interaktion vorgesehene Element (berührungssensitive Oberfläche der ersten Touchbar) des Eingabemodul an der dafür vorgesehenen Stelle, beispielsweise in bzw. vor der Ohrmuschel, platziert werden. Somit ist zugleich die freie Zugänglichkeit des zur Interaktion vorgesehenen Elements des Eingabemoduls sichergestellt, weil dieses lagevariabel positionierbar ist. Die zwei Gehäuse geben somit einander Halt während sowohl der signalabgebende Teil des Ausgabemoduls als auch die berührungssensitive Oberfläche der ersten Touchbar den individuellen Gegebenheiten des Ohres angepasst positionierbar ist.

Weiterhin hat es sich als vorteilhaft erwiesen, dass das Verarbeitungsmodul ein Gehäuse, insbesondere starres Gehäuse, aufweist, welches Gehäuse zum Tragen hinter der Ohrmuschel ausgebildet ist, welches Gehäuse insbesondere an den Verlauf der Ohrmuschel vom oberen Bereich bis hin zum hinteren Bereich der Ohrmuschel angepasst ist. Somit wird ausreichend Platz zur Aufnahme der

Verarbeitungselektronik bereitgestellt. Gleichzeitig ist somit ein sicherer Schutz vor mechanischer Einwirkung gegeben. Das starre Gehäuse bildet auch einen optimalen Platz für die Anbringung bzw. Aufnahme der zumindest zwei Mikrofone, weil damit ihre Lage zueinander wie auch ihre Orientierung (in Bezug aufeinander) unveränderbar fixiert ist. Das starre Gehäuse bildet auch eine optimale Tragewirkung für eine weitere berührungssensitive Oberfläche einer zweiten Touchbar des Eingabemoduls, mit dessen Hilfe sich z.B. die globale Lautstärke des Systems wie auch individuelle Lautstärke für die beiden Verarbeitungseinrichtungen anpassen lässt. Bevorzugt wird diesem weiteren Element des Eingabemoduls eine oder mehrere Funktionen zugewiesen, die weniger oft benötigt werden als jene des besser zugänglichen ersten berührungssensitiven Elements des Eingabemoduls. Mit der bügelartigen Form des Gehäuses geht jedoch auch die Wirkung einher, dass die gesamte Verarbeitungseinrichtung zuverlässig am Ohr eingehängt werden kann.

Gemäß einem weiteren Aspekt schließt das Gehäuse des Verarbeitungsmoduls zumindest einseitig an ein verformbares, insbesondere plastisch verformbares, Verbindungselement an. Auch dieses weitere Verbindungselement erlaubt mit seiner Verformbarkeit eine erleichterte Positionierbarkeit und Ausrichtung des Verarbeitungsmoduls in der Halteposition zwischen der Ohrmuschel und der Schädeldecke.

Bevorzugt verbindet das verformbare Verbindungselement als ein zweites Verbindungselement das Gehäuse des Verarbeitungsmodul mit dem Gehäuse, an dem die berührungssensitive Oberfläche der ersten Touchbar zugänglich ist. Diese Konfiguration ermöglicht eine die Ohrmuschel im Wesentlichen beidseitig umfassende und somit einspannende Wirkung zu etablieren, was sich aus dem Zusammenwirken des Verarbeitungsmoduls mit jenen Teilen der Verarbeitungseinrichtung, die dem Gesicht zugewandt sind, also im Wesentlichen dem Gehäuse, an dem die berührungssensitive Oberfläche der ersten Touchbar zugänglich ist, ergibt.

Insbesondere kommt hier der Einsatz der beiden flexiblen Verbindungselemente mit dem zwischen ihnen positionierten Gehäuse, an dem die berührungssensitive Oberfläche der ersten Touchbar zugänglich ist, zum Tragen, um eine ausgehend von dem Gehörgang die Ohrmuschel umschlingende Struktur zu schaffen, deren Klemmwirkung durch die beiden flexiblen Verbindungselemente optimiert ist und eine Bedienbarkeit von vorne her ermöglicht. Besonders bevorzugt wird hierbei die berührungssensitive Oberfläche der ersten Touchbar zwischen den beiden verformbaren Verbindungselementen gehalten. Dies insbesondere deshalb, weil die beiden verformbaren Verbindungselemente einmal in ihre Form gebracht diese Form im Wesentlichen beibehalten, also plastisch verformbar sind. Die beiden Verbindungselemente können jedoch auch elastisch verformbar sein. So können sie z.B. an eine Grundform, die auf die jeweilige Ohrmuschel maßgeschneidert ist, ausgelegt sein. Beim Anlegen des Hörgeräts kann sich der Bogen, der durch die Form der Verarbeitungseinrichtung definiert ist, erweitern lassen, was das Einsetzen zwischen der Ohrmuschel und der Schädeldecke erleichtert. Auch kann das eine Verbindungselement plastisch verformbar und das andere elastisch verformbar sein, um beide Wirkungen zur Verfügung zu stellen.

Gemäß einem weiteren Aspekt weist zumindest eine der Verarbeitungseinrichtungen einen leitungsgebundenen Anschluss, bevorzugt einen mehrpoligen Anschluss, insbesondere einen magnetisch haltenden Anschluss, für einen Anschluss eines weiteren Geräts oder eines Zusatzmoduls auf. Bevorzugt ist dieser Anschluss an einem Gehäuse der Verarbeitungseinrichtung ausgebildet. Besonders bevorzugt ist dieser Anschluss an ihrem freien Ende, das sich bei der am Ohr getragenen Verarbeitungseinrichtung hinter der Ohrmuschel befindet oder nach unten gerichtet ist, verfügbar. Dies erlaubt eine flexible und variable Erweiterung der Funktionalität der jeweiligen Verarbeitungseinrichtung um die jeweils an den Anschluss angeschlossene Baugruppe bzw. lässt sich so zumindest ein weiteres externes Mikrofon, eine Batterie oder ein Ladegerät, ein externes Speichermedium zum Aufzeichne von Mikrofonsignalen oder zum Einspielen von Software oder Audiodaten, ein drahtloses Kommunikationsmodul, um eine Verbindung zu einem anderen Funknetzwerk herstellen zu können oder eine Verbindung mit dem Internet zu ermöglichen, um z.B. eine Cloud-Lösung verfügbar zu machen, anschließen. Als Zusatzmodul kann weiterhin ein Funk- Übertragungsgerät zur Anwendung kommen, das über den (magnetisch haltenden) Anschluss mit dem System logisch gepaart wird. Dieses Übertragungsgerät kann in weiterer Folge mit einer anderen Audio-Quelle oder einem Steuergerät gespeist werden und über seine Funkverbindung Audio-Daten und/oder Konfigurations-Daten an das System übertragen.

Gemäß einem weiteren Aspekt weist eine der Verarbeitungseinrichtungen ein haptisches Modul (auch Haptik-Modul bezeichnet) zum Abgeben eines haptisch wahrnehmbaren Signals auf. Dies ermöglicht eine haptische Signalisierung oder auch ein haptisches Feedback in der Umgebung des Ohres, sodass das haptisch wahrnehmbare Signal eindeutig einer Funktion oder einem Ereignis im Zusammenhang mit der Verarbeitungseinrichtung zuzuordnen ist. Damit lassen sich möglicherweise störende akustische Signalisierungen vermeiden. Beispielhaft sei in diesem Zusammenhang das erfolgreiche Etablieren eines akustischen Fokus auf eine sprechende Person erwähnt. Als haptisches Signal kann z.B. ein elektromechanisch generiertes Klopfen bzw. Vibrieren, eine Stiftbewegung, oder ähnliches vorgesehen sein.

Gemäß einem weiteren Aspekt kann eine der Verarbeitungseinrichtungen zum Empfangen und Verarbeiten von einer zusätzlichen Softwareapplikation oder von Audio-Ausgabedaten, die ein mit Hilfe der Verarbeitungseinrichtung abgebbares Audiosignal repräsentieren, ausgebildet sein. Dies ermöglicht erstmals, dass nicht nur reine Verarbeitungsparameter oder Gerätesettings, die beim Abstimmen des Geräts auf den jeweiligen Anwendungsfall bzw. Träger beim Audiologen ermittelt und zur Anwendung kommen, in die Verarbeitungseinrichtung eingespielt werden können, sondern auch ausführbarer Programmcode, z.B. in Form einer Applikation (Es kann sich zum Beispiel um Systemplugins oder userdefinierte Plugins handeln, welche die bestehende Signalverarbeitungskette beeinflussen oder ergänzen.) und/oder zusätzliche wiedergebbare Audiodateien einspielbar sind. Die zusätzliche Applikation liefert zusätzliche Funktionalität oder ersetzt eine bestehende Funktionalität durch eine andere, ggf. verbesserte Funktionalität.

Als wiedergebbare Audiodateien können beispielhaft beruhigende bzw. entspannende Hintergrundgeräusche wie z.B. knisterndes brennendes Holz, also Geräusche eines Kaminfeuers, oder zwitschernde Vögel oder auch das Rauschen von Blättern im Wald, usw. angeführt werden.

Als zusätzliche Funktionalität kann beispielhaft ein alternativer Algorithmus zur Erkennung von Sprache - geliefert z.B. von einem Drittanbieter (also nicht direkt vom Hersteller des Systems) - angeführt werden, wobei der alternative Algorithmus z.B. wahlweise zusätzlich oder an Stelle eines existierenden Algorithmus zum Einsatz kommt. Auch kann darunter eine Ersatzfunktionalität verstanden werden, mit der z.B. ein bestehender Algorithmus durch einen neuen Algorithmus abgelöst, also ersetzt wird.

Die zusätzlichen Softwareapplikation oder die Audio-Ausgabedaten können in beide Verarbeitungseinrichtungen geladen werden. Besonders bevorzugt sind die beiden Verarbeitungseinrichtungen dazu ausgebildet, die nur bei einer der Verarbeitungseinrichtungen empfangene Softwareapplikation oder die nur bei einer der Verarbeitungseinrichtungen empfangenen Audio- Ausgabedaten mit Hilfe einer dritten Funkverbindung zu der anderen Verarbeitungseinrichtung zu übertragen. Damit wird eine autonome bzw. automatische inhaltliche Synchronisation der auf den beiden Verarbeitungseinrichtungen installierten Software bzw. verfügbaren Audiodaten erhalten. Bevorzugt wird zunächst die inhaltliche Synchronisation durchgeführt, bevor das Verarbeiten der Mikrofonsignale auf beiden Verarbeitungsgeräten unter Anwendung der Softwareapplikation oder der Audio-Abgabedaten erfolgt. Somit ist im System eine einheitliche Funktionsbereitstellung sichergestellt. Die dritte Funkverbindung kann bevorzugt eine separate Funkverbindung sein oder durch die erste Funkverbindung oder durch die zweite Funkverbindung gegeben sein.

Als besonders vorteilhaft hat es sich zudem erwiesen, wenn zumindest eine der Verarbeitungseinrichtungen dazu ausgebildet ist, über eine vierte Funkverbindung mit einem mobilen Benutzergerät zu kommunizieren und diesem Benutzergerät mit Hilfe der vierten Funkverbindung eine Positionsinformation bereitzustellen, wobei die Positionsinformation die Position von zumindest einer Schallquelle in Relation zur Position des Systems angibt, und von diesem Benutzergerät mit Hilfe der vierten Funkverbindung eine Auswahlinformation zu empfangen, wobei die Auswahlinformation angibt, welche Richtung bzw. welcher Richtungsbereich in Bezug auf die Position und/oder Orientierung des Systems für die weitere Verarbeitung der Mikrofonsignale ausgewählt ist. Dies erlaubt es dem Benutzer des Systems gezielt mit Hilfe eines visuellen Interfaces eine oder mehrere akustische Fokussierungen vorzunehmen. Diese Funktionalität erlaubt den Einsatz eines mobilen Benutzergeräts, z.B. in Form eines Mobiltelefons oder eines Tabletcomputers, um dem Benutzer des Systems einen Eingriff in die Signalverarbeitungskette auf visueller Basis zu ermöglichen.

Zusammenfassend sein nachmals erwähnt, dass die bevorzugte Anwendung des Systems im Bereich der binauralen Hörgeräte, insbesondre im Bericht der binauralen Ambisonics-Hörgeräte liegt. Das System kann jedoch auch für die Hörtherapie, für Earbuds, für Hearables (aurale Wearables) Kopfhörer und Assistive Listening Devices zur Anwendung kommen.

In Bezug auf die Benutzerinteraktion ist weiters in seiner allgemeinen Form, also unabhängig davon, in welcher Art und Weise die Mikrofonsignale zwischen den Verarbeitungseinrichtungen übertragen werden oder dort verarbeitet werden, ein innovatives Benutzerinterface, insbesondre für ein Hörgerät, offenbart.

In diesem Kontext ist die Verarbeitungseinrichtung dazu ausgebildet in einem flächenhaften Interaktionsbereich des Eingabemoduls zumindest zwei verschiedene Menübereiche zu definieren. Der flächenhafte Interaktionsbereich kann durch die bereits erörterte berührungssensitive Oberfläche gegeben sein.

Das Eingabemodul ist weiters dazu ausgebildet, eine Benutzerinteraktion im Interaktionsbereich - insbesondere auf kapazitive Weise - zu erfassen und dies mit Hilfe von Interaktionsdaten, welche die Interaktion als solches und/oder eine Art der Interaktion repräsentieren, bereitzustellen.

Bei der Art der Interaktion kann es sich um ein einfaches kurzzeitiges Berühren (Antippen) des Interaktionsbereichs oder ein im Vergleich dazu längeres Verweilen auf dem Interaktionsbereich oder um eine im Interaktionsbereich stattfindende, den Interaktionsbereich berührende Bewegung handeln. Für diese Arten der Interaktion kann z.B. der Finger einer Hand oder ein Stift oder Ähnliches zum Einsatz kommen.

Durch das erfasste kurzzeitige Berühren kann die Verarbeitungseinrichtung z.B. den betreffenden Menüpunkt bzw. die diesem Menüpunkt hinterlegte Funktion aktivieren bzw. ausführen. Durch das im Vergleich dazu längere Verweilen auf dem Interaktionsbereich kann die Verarbeitungseinrichtung z.B. von einer Menüebene in die nächste wechseln.

Durch die im Interaktionsbereich stattfindende, den Interaktionsbereich berührende Bewegung kann die Verarbeitungseinrichtung einen - z.B. zu dem jeweiligen Menüpunkt, der durch einfaches Antippen zuvor ausgewählt wurde oder durch das längere Verweilen aktiviert wurde - korrespondierenden Verarbeitungsparameter gemäß der Weite der Bewegung verändern.

Die Verarbeitungseinrichtung kann jedoch auch dazu ausgebildet sein, die den Interaktionsbereich berührenden Bewegung so zu interpretieren, dass ein am Anfang der Bewegung im Interaktionsbereich lokalisierter Menübereich hin zum Ende der Bewegung verlagert bzw. verschoben werden soll. Dies kann zur interaktiven Umgruppierung von Menübereichen innerhalb des Interaktionsbereiches verwendet werden, um die Position des Menübereichs bzw. der Menübereiche an die Anforderungen des Benutzers anzupassen.

Die Verarbeitungseinrichtung kann jedoch auch dazu ausgebildet sein, die den Interaktionsbereich berührenden Bewegung so zu interpretieren, dass ein am Anfang der Bewegung im Interaktionsbereich lokalisierter erster Menübereich hin zu einem anderen am Ende der Bewegung lokalisierten zweiten Menübereich verlagert bzw. verschoben werde soll. Den beiden Menübereiche können gemäß einer bevorzugten Ausbildung unterschiedlichen Profilen - also konkret ein erstes Profil und ein zweites Profil - für die Signalverarbeitungskette, die bei der jeweiligen Verarbeitungseinrichtung zur Verarbeitung der beiden Gruppen der Mikrofonsignale zum Einsatz kommt, zugeordnet sein. Gemäß der erfassten Bewegung werden die Werte bzw. Einstellungen der Signalverarbeitungsparameter des ersten Profils hin zu jenen Werten bzw. Einstellungen der Signalverarbeitungsparameter des zweiten Profils verändert.

Diese Veränderung der Werte bzw. Einstellungen kann im Fall kontinuierlich veränderbarer Werte bzw. Einstellungen kontinuierlich bzw. quasikontinuierliche erfolgen, wobei der Grad der Veränderung mit der Weite der erfassten Bewegung skalieren kann. Im Fall von nur schrittweise oder nur sprunghaft veränderbaren Werten bzw. Einstellungen kann die zu erfolgende Veränderung bei Eintreten eines Schwellwerts der erfassten Bewegung erfolgen. In einem solchen Profil kann grundsätzlich eine Mischung aus beiden Arten dieser Werte bzw. Einstellungen vorliegen.

Bei der Verarbeitungseinrichtung wird bei einem Eintreten der erörterten Veränderung die Signalverarbeitung gemäß dem ersten Profil in eine Signalverarbeitung gemäß der nunmehr vorliegenden veränderten Werten bzw. Einstellungen übergeführt. Hierbei können die Werte und Einstellungen Zwischenzustände zwischen den durch die beiden Profile definierten Grenzen der Werte bzw. Einstellungen einnehmen. Nur wenn die erfasste Bewegung die gesamte zur Verfügung stehende Länge/Breite/Diagonale usw. des flächenhaften Interaktionsbereichs ausnützt oder zu einer vordefinierten Bewegungsweite bzw. -form korrespondiert, wird zu einhundert Prozent von dem ersten Profil auf das zweite Profil umgestellt. Andernfalls kommen die erwähnten Zwischenzustände zum Einsatz.

Für den Fall, dass für einen Signalverarbeitungsparameter des ersten Profils kein korrespondierender Parameter des zweiten Profils vorliegt, bleibt der betreffende Signalverarbeitungsparameter so lange unverändert, bis ein vollständiger Wechsel von dem ersten Profil auf das zweite Profil eingetreten ist oder ein prozentueller Schwellwert (z.B. 25% 50% oder 75%) der maximalen Bewegung eingetreten ist oder die im Wesentlichen kontinuierlich veränderlichen Werte bzw. Einstellungen gemäß einem Schwellwert (z.B. 25% 50% oder 75%) verändert wurden. Somit kann vermieden werden, dass die betreffende Wirkung des nur im ersten Profil verfügbaren Parameters zu abrupt einsetzt. Analog kann natürlich auch mit einem Signalverarbeitungsparameter des zweiten Profils verfahren werden, zu dem es keinen korrespondierenden Parameter im ersten Profil gibt.

Die Verarbeitungseinrichtung kann auch die gemäß der Bewegung vorzunehmende Veränderung der Signalverarbeitungsparameter in Echtzeit in der Signalverarbeitungskette umsetzen, sodass das Ergebnis dieser Veränderung der Signalverarbeitungsparameter unmittelbar wahrnehmbar ist.

Mit Hilfe dieser Maßnahmen kann der Benutzer selbst im laufenden Betrieb tief in die Funktion der Signalverarbeitungskette eingreifen. Zudem kann damit ein Hörtest durchgeführt und ausgewertet werden und die Defizite eruiert werden, weil das Eingabemodul vielfältigste Interaktionen zulässt. Das mit den beschriebenen technischen Maßnahmen ausgerüstete System kann auch ein Teilen eines aus den Mikrofonsignalen generierten Audiodatenstroms in Echtzeit mit einem anderen externen Gerät ermöglichen. Dies kann beispielsweise mit Hilfe einer Funkverbindung mit dem externen Gerät oder einer leitungsgebundenen Verbindung über den (magnetisch haltenden) Anschluss erfolgen. Diese Funktionalität erlaubt es einer anderen Person mit Hilfe des anderen Gerätes das zugrundeliegende Audio-Erlebnis der das System tragenden Person live mitzuerleben. Diese Funktionalität kann auch dazu eingesetzt werden, auf dem anderen Gerät in Echtzeit das Audioerlebnis, also den Audiodatenstrom, zu analysieren.

Das System, insbesondere die Verarbeitungseinrichtungen, können auch jeweils einen Datenspeicher aufweisen, mit dessen Hilfe die generierten Mikrofonsignale im Rohdatenformat oder auch vorverarbeitet kontinuierlich oder auch auf einen zeitlichen Bericht des Auftretens eines Audio-Ereignisses beschränkt gespeichert werden. Dazu korrespondierend werden auch die Einstellungen bzw. Parameter gespeichert, die bei der Signalverarbeitungskette zur Erstellung des Audiodatenstroms aus den Mikrofonsignalen eingesetzt wurden. Treten bei dem Benutzer des Systems nun Probleme in der Audiowahrnehmung auf, kann durch gezielte, systematische Anpassung bzw. Veränderung der Einstellungen bzw. Parameter ermittelt werden, mit welchen Werten für die Einstellung bzw. Parameter die Audiowahrnehmung bei dem Benutzer verbessert wird. Die gespeicherten Daten erlauben insbesondere ein inkrementelles und auf Wiederholung basierendes Anpassen der Einstellungen und Parameter, um für ein und dasselbe Audio-Erlebnis die passenden Parameter zu ermitteln. Dies ist insbesondere deshalb wichtig, weil die persönliche Audiowahrnehmung oft auf Subjektivität beruht, die es der Person erschwert, dies zum Beispiel einem Audiologen in einer objektiven Form mitzuteilen. Weiterhin können auch die zu dem jeweiligen Audio-Erlebnis korrespondierenden Audiodatenströme, die unter Anwendung verschiedenster Einstellungen und Parameter bzw. deren Veränderungen erstellt wurden, gespeichert werden. Dies erlaubt es dem Benutzer durch vergleichendes Anhören (also sequentielles Abspielen der Audiodatenströme) die für ihn passenden Einstellungen und Parameter einzugrenzen, was wiederum dem Audiologen oder einer softwarebasierten audiologischen Applikation die Möglichkeit gibt, das optimierte Set von Einstellungen bzw. Parametern zu finden.

Abschließend sei noch allgemein erwähnt, dass die erörterten elektronischen Geräte (sowohl des Systems als auch außerhalb des Systems wie Smartphone, Tablet-Computer, usw.) natürliche eine Elektronik aufweisen. Die Elektronik kann diskret oder durch integrierte Elektronik oder auch eine Kombination aus beiden aufgebaut sein. Auch können Microcomputer, Micro Controller, Application Specific Integrated Circuits (ASICs), ggf. in Kombination mit analogen oder digitalen elektronischen Peripheriebausteinen zum Einsatz kommen. Viele der erwähnten Funktionalitäten der Geräte werden - ggf. im Zusammenwirken mit Hardwarekomponenten - mit Hilfe einer Software realisiert, die auf einem Prozessor der Elektronik ausgeführt wird. Zur Funkkommunikation ausgebildete Geräte weisen üblicherweise als Bestandteil eines Transceiver- Moduls eine Antennenkonfiguration zum Senden und Empfangen von Funk- Signalen auf. Die elektronischen Geräte können zudem eine interne elektrische Leistungsversorgung aufweisen, die beispielsweise mit einer austauschbaren oder aufladbaren Batterie realisiert sein kann. Auch können die Geräte leitungsgebunden, entweder durch ein externes Netzteil oder auch mittel „Power over LAN" versorgt werden.

Diese und weitere Aspekte der Erfindung ergeben sich durch die nachfolgend erörterten Figuren.

Figurenkurzbeschreibung

Die Erfindung wird im Folgenden unter Hinweis auf die beigefügten Figuren anhand von Ausführungsbeispielen noch einmal näher erläutert, auf welche die Erfindung jedoch nicht beschränkt ist. Dabei sind in den verschiedenen Figuren gleiche Komponenten mit identischen Bezugszeichen versehen. Es zeigen auf schematische Weise:

Fig. 1 einen Kopf einer Person mit einem binauralen Hörgeräte-System mit je einer Verarbeitungseinrichtung an jedem Ohr des Kopfes, Fig. 2 Richtungsangabe für das binaurale Hörgeräte-System in der horizontalen Ebene bezogen auf den Kopf,

Fig. 3 Richtcharakteristiken der in dem binauralen Hörgeräte-System zur Anwendung kommenden Mikrofone, Fig. 4 ein Blockschaltbild eines binauralen Hörgeräte-Systems, Fig. 5 eine in den Verarbeitungseinrichtungen eingesetzte Signalverarbeitungskette,

Fig. 6 strukturelle Details der Verarbeitungseinrichtungen in einer Explosionszeichnung,

Fig. 7 die Verarbeitungseinrichtung mit in ihrem Gehäuse aufgenommenen elektronischen Komponenten bzw. Baugruppen und zusätzliche an sie anschließbare Erweiterungsmodule,

Fig. 8 ein mit Hilfe zweiter Touchbars realisiertes dynamisches Interface der Verarbeitungseinrichtungen,

Fig. 9 eine beispielhafte Schallquellenanordnung in der Umgebung des binauralen Hörgeräte -System,

Fig. 10A - 10B die Wirkung des Einsatzes des binauralen Hörgeräte-Systems in der beispielhaften Schallquellenanordnung gemäß der Fig. 9, Fig. 11A - HD einen Einsatz einer optionalen App auf einem mobilen Benutzergerät bei der Verwendung des binauralen Hörgeräte-Systems in einer weiteren Schallquellenanordnung und

Fig. 12 eine serverunterstütze bzw. cloudbasierte Funktionserweiterung des binauralen Hörgeräte-Systems.

Beschreibung der Ausführungsbeispiele

Die Figur 1 zeigt einen Kopf 101 einer Person 100, die ein binaurales Hörgeräte-System 1, nachfolgend kurz System 1 genannt, trägt, das eine erste am linken Ohr 102 getragene Verarbeitungseinrichtung 2 und eine zweite am rechten Ohr 103 getragene Verarbeitungseinrichtung 3 aufweist, um der Person 100 ein verbessertes, insbesondere natürliches Hörerlebnis mit beiden Ohren 102, 103 zu ermöglichen. Die Bezeichnungen vorne V, hinten H, links L, und rechts R entsprechen hierbei der natürlichen Richtungsangabe in Bezug auf den Kopf 101 der (stehenden oder sitzenden) Person 100, sodass das Gesicht nach vorne V, das linke Ohr 102 nach links L und das rechte Ohr 103 nach rechts R ausgerichtet ist. Gleiches gilt für die üblichen Richtungsangaben oben O und unten U. Zwischen den Verarbeitungseinrichtungen 2 und 3 ist auch eine Funkverbindung angedeutet, worauf nachfolgend noch im Detail eingegangen ist.

Die Figur 2 zeigt die vier Richtungen V, H, R und L bezogen auf den Kopf 101 der Person 100, der von oben betrachtet wird, wobei das Gesicht der Person 100 nach vorne V blickt, was der Gradangabe 90° entspricht. Die Gradangabe ist in der horizontalen Ebene angegeben, die im Wesentlichen auf Höhe der Ohren 102, 103 positioniert ist. Der Kopf 101 ist hierbei umfangsseitig angedeutet und mit einem Kreuz 200 gekennzeichnet, wobei der längste Abschnitt des Kreuzes 201 vom Zentrum des Kopfes 101 zur Nase hin orientiert ist. Dies ist an dieser Stelle erwähnt, weil diese Art der Darstellung auch in den nachfolgenden Figuren zur Anwendung kommt.

Jede der in der Figur 1 dargestellten Verarbeitungseinrichtungen 2 und 3 weist jeweils zwei Mikrofone 10 und 11 bzw. 12 und 13 (nicht eingezeichnet, siehe jedoch z.B. Figur 3 und 4) auf, sodass eine Schallerfassung in alle vier Richtungen V, H, L und R möglich ist, wie dies in der Figur 2 gezeigt ist. Die in der Figur 2 ersichtlichen Haupterfassungsrichtungen der vier Mikrofone 10-13 sind hier durch die Richtungsangaben „links-vorne" LV, „rechts-vorne" RV, „links-hinten" LH und „rechts-hinten" RH angedeutet.

Die in der Figur 3 ersichtlichen Richtcharakteristiken LVC, LHC, RVC und RHC der Mikrofone 10-13 erstrecken sind (dreidimensional) nierenförmig im Wesentlichen symmetrisch um diese Haupterfassungsrichtungen LV, RV, LH, RH. Die Richtcharakteristiken LVC, LHC, RVC und RHC werden hierbei durch die Art des Mikrofons 10-13 sowie der Positionierung bzw. Orientierung des Mikrofons 10-13 definiert. Die Richtcharakteristiken LVC, LHC, RVC und RHC decken im Wesentlichen die gesamte Umgebung um den Kopf 101 der Person 100 ab und erlauben so eine rundum Erfassung des auf den Kopf 101 eintreffenden Schalls. Erwähnt sein an dieser Stelle lediglich, dass die Mikrofone 10 - 13 losgelöst vom Kopf 101 dargestellt sind, um sie überhaupt sichtbar zu machen. Tatsächlich sind sie in den Verarbeitungseinrichtungen 2 und 3 integriert, was den Figuren 4, 6, 7, 8 und 12 zu entnehmen ist.

In der Figur 4 sind die beiden Verarbeitungseinrichtungen 2 und 3 in weiterer Folge anhand von einem Blockschaltbild erörtert. Die beiden Verarbeitungseinrichtungen 2 und 3 sind batteriebetrieben und weisen daher jeweils eine wiederaufladbare Batterie 25 auf, die eine Versorgungsspannung VCC gegenüber einem Bezugspotential GND bereitstellt.

Die erste Verarbeitungseinrichtung 2 weist eine erste Verarbeitungsstufe 4 auf. Die Verarbeitungsstufe 4 ist mit einem ersten Bluetooth-Funkmodul 6, kurz erstes Funkmodul 6, und einem vierten Bluetooth-Funkmodul 9, kurz viertes Funkmodul 9, über jeweils eine UART- Verbindung 17 zur Einstellung bzw. Programmierung der Funkmodule 6 bzw.

9 und über jeweils eine I 2 S-Verbindung 18 zur separaten Übertragung von Audiodaten verbunden.

Unter der Abkürzung UART versteht der Fachmann einen „Universal Asynchronous Receiver Transmitter". Unter der Abkürzung I 2 S versteht der Fachmann eine serielle von Phillips entwickelte Schnittstelle für die Audio- Übertragung, die auch unter dem Begriff „Inter-IC Sound" bekannt ist.

Das erste Funkmodul 6 ist leitungsgebunden (in diesem Ausführungsbeispiel über seine Analog-Mikrofonsignal-Eingänge) mit einem ersten Mikrofon 10 und einem zweiten Mikrofon 11 verbunden. Mit dem ersten Mikrofon 10 und dem zweiten Mikrofon 11 wird jeweils ein individuelles Mikrofonsignal MSI bzw. MS2 generiert. Die beiden Mikrofonsignale MSI und MS2 bilden zusammen eine erste Gruppe Gl an Mikrofonsignalen. Die bei dem ersten Funkmodul 6 einlangenden Mikrofonsignale MSI und MS2 werden mit Hilfe des ersten Funkmoduls 6 für die weitere Verarbeitung digitalisiert.

Die zweite Verarbeitungseinrichtung 3 weist eine zweite Verarbeitungsstufe 5 auf. Die zweite Verarbeitungsstufe 5 ist mit einem dritten Bluetooth-Funkmodul 8, kurz drittes Funkmodul 8, und einem zweiten Bluetooth-Funkmodul 7, kurz zweites Funkmodul 7, über jeweils eine UART- Verbindung 17 zur Einstellung bzw. Programmierung der Funkmodule 6 bzw. 9 und über jeweils eine I 2 S-Verbindung 18 zur separaten Übertragung von Audiodaten verbunden.

Das dritte Funkmodul 8 ist leitungsgebunden (in diesem Ausführungsbeispiel über seine Analog-Mikrofonsignal-Eingänge) mit einem dritten Mikrofon 12 und einem vierten Mikrofon 13 verbunden. Mit dem dritten Mikrofon 12 und dem vierten Mikrofon 13 wird jeweils ein individuelles Mikrofonsignal MS3 bzw. MS4 generiert. Die beiden Mikrofonsignale MS3 und MS4 bilden zusammen eine zweite Gruppe G2 an Mikrofonsignalen. Die bei dem dritte Funkmodul 8 einlangenden Mikrofonsignale MS3 und MS4 werden mit Hilfe des dritten Funkmoduls 8 für die weitere Verarbeitung digitalisiert.

An dieser Stelle sei erwähnt, dass die jeweilige Gruppe Gl bzw. G2 der Mikrofonsignale auch bereits als digitalisierter Audio-Datenstrom den Funkmodulen 6 bzw. 7 zugeführt werden kann, wenn entsprechen ausgebildet Mikrofone zum Einsatz kommen, die eine solche Erstellung des Audi- Datenstroms unterstützen.

Jedes der Funkmodule 6 bis 9 weist eine Antennenkonfiguration 14 und die übliche Transceiver-Elektronik (nicht im Detail dargestellt) zur Bluetooth-Funkkommunikation auf.

Im Betrieb ist zwischen dem ersten Funkmodul 6 und dem zweiten Funkmodul 7 eine erste Funkverbindung 15 aufgebaut und es wird von dem ersten Funkmodul 6 die erste Gruppe Gl der Mikrofonsignale an das zweite Funkmodul 7 übermittelt. Für diese Funksignalübertragung ist das erste Funkmodul 6 ausschließlich als Sender und das zweite Funkmodul 7 ausschließlich als Empfänger in Verwendung.

Im Betrieb ist weiters zwischen dem dritten Funkmodul 8 und dem vierten Funkmodul 9 eine zweite Funkverbindung 16 aufgebaut und es wird von dem dritten Funkmodul 8 die zweite Gruppe G2 der Mikrofonsignale an das vierte Funkmodul 9 übermittelt. Für diese Funksignalübertragung ist das dritte Funkmodul 8 ausschließlich als Sender und das vierte Funkmodul 9 ausschließlich als Empfänger in Verwendung.

Weiters werden in dieser Betriebskonfiguration Audiodaten, welche die erste Gruppe Gl der Mikrofonsignale repräsentieren, von dem ersten Funkmodul 6 und Audiodaten, welche die zweite Gruppe G2 der Mikrofonsignale repräsentieren, von dem vierten Funkmodul 9 jeweils über die separaten I 2 S-Verbindungen 18 an die erste Verarbeitungsstufe 4 übertragen. Weiterhin werden in dieser Betriebskonfiguration Audiodaten, welche die erste Gruppe Gl der Mikrofonsignale repräsentieren, von dem zweiten Funkmodul 7 und Audiodaten, welche die zweite Gruppe G2 der Mikrofonsignale repräsentieren, von dem dritten Funkmodul 8 jeweils über die separaten I 2 S-Verbindungen 18 an die zweite Verarbeitungsstufe 5 übertragen. Somit stehen sowohl bei der ersten Verarbeitungseinrichtung 2 wie auch bei der zweiten Verarbeitungseinrichtung 3 beide Gruppen Gl und G2 der Mikrofonsignale, also alle Mikrofonsignale MSI bis MS4, für die weitere Signalverarbeitung zur Verfügung, wobei die individuelle, unidirektionale Übertragung über zwei separate Funkverbindungen 15 und 16 - sowie dies im allgemeinen Teil der Beschreibung erörtert ist - die Grundlage für die weitere phasensynchrone Signalverarbeitung aller Mikrofonsignale MSI bis MS4 in jeder der Verarbeitungseinrichtungen 2 und 3 in Echtzeit bildet. In diesem Ausführungsbeispiel sind die vier Funkmodule 6 bis 9 jeweils durch einen Bauteil der Firma „MICROCHIP" mit der Bezeichnung „BM83 Bluetooth® Stereo Audio Modul" realisiert. Die beiden Verarbeitungsstufen 4 und 5 sind in diesem Ausführungsbeispiel durch einen Bauteil der Firma „NXP Semiconductors" mit der Bezeichnung „i.MX RT1160" realisiert. Auf eine Erörterung von gegebenenfalls weiteren (analogen) Bauteilen, die im Kontext der erwähnten digitalen Bauteile vorzusehen sind, ist aus Gründen der Übersichtlichkeit verzichtet. Der Fachmann kann dies den einschlägigen Datenblättern entnehmen.

Jede der Verarbeitungseinrichtungen 2 und 3 weist ein Gyroskop 21a bzw. 21b auf, mit dem Lagedaten LD generiert werden, welche die Lage bzw. die Veränderung der Lage der jeweiligen Verarbeitungseinrichtungen 2 bzw. 3 repräsentieren. Jede der Verarbeitungsstufen 4 und 5 ist mit dem jeweiligen Gyroskop 21a bzw. 21b verbunden und berücksichtigt die jeweiligen Lagedaten LD bei der weiteren Verarbeitung der beiden Gruppen Gl und G2 der Mikrofonsignale, sodass Lageänderungen in dieser weiteren Verarbeitung kompensiert werden können.

Jede der Verarbeitungseinrichtungen 2 und 3 weist weiterhin ein berührungssensitives Eingabemodul 20 auf, das sich einerseits in einen ersten Eingabemodul-Controller 19a (realisiert mit Hilfe eines Microcontrollers) und einen daran angeschlossenen ersten sogenannten „Touchstrip" 20a und andererseits in einen zweiten Eingabemodul-Controller 19b (ebenfalls realisiert mit Hilfe eines Microcontrollers) und einen daran angeschlossenen zweiten Touchstrip 20b gliedert. Die beiden Touchstrips 20a und 20b bilden äußere Ausprägungen zweier Touchbars, die jeweils eine berührungssensitive Oberfläche aufweisen. Das Eingabemodul 20 kann wahlfrei belegbare Zonen auf den Touchstrips 20a bzw. 20b definieren und so die dort zur Verfügung stehende Fläche in Menüpunkte gliedern, beispielsweise in eine obere und untere Hälfte, sodass mittels Finger-Berührung die den Menüpunkten zugeordneten Funktionen auslösbar sind. Die Zuordnung der Menüpunkte zu den Zonen kann vorgegeben sein, sich je nach Betriebszustand verändert werden bzw. angepasst werden oder über eine externe App konfiguriert werden. Die jeweilige Verarbeitungsstufe 4 und 5 ist mit dem jeweiligen Eingabemodul 20 verbunden. Das Eingabemodul 20 ist dazu ausgebildet auf kapazitive Weise die Position eines Fingers der Person 100 auf dem jeweiligen Touchstrip 20a bzw.20b zu erfasse und mittels des jeweiligen Berührungsmodul-Controllers 19a bzw. 19b zu interpretieren und Interaktionsdaten ID zu generieren und für die jeweilige Verarbeitungsstufe 4 bzw. 5 bereitzustellen, wo diese Interaktionsdaten ID gemäß der gerade gültigen Menübelegung des jeweiligen Touchstrips 20a und 20b verarbeitet werden. Mit Hilfe dieser Menübelegung lassen sich z.B. auf dem Touchstrip 20a und 20b Bereiche definieren, die zur direkten Aktivierung von Profilen dienen, oder auch Bereiche definieren, die zur Steuerung der Lautstärke dienen, oder Bereiche definieren, die zur Ausrichtung von einem virtuellen Mikrofon dienen, usw. Weiterhin sei an dieser Stelle erwähnt, dass auch mittels einer externen Interaktionsquelle, wie z.B. einem Smartphone, einem Tabletcomputer oder auch einer cloudbasierten Softwarelösung die Interaktionsdaten ID generierbar sind und mittels einer Funkverbindung an eine der Verarbeitungseinrichtungen 2 oder 3 oder an beide Verarbeitungseinrichtungen 2 und 3 übermittelt werden, um sie dort für die weitere Verarbeitung zu nutzen.

Die Interaktionsdaten ID sowie auch die Lagedaten LD können gemeinsam mit den Mikrofonsignalen MSI und MS2 bzw. MS3 und MS4 über die entsprechenden Funk-Verbindungen 15 und 16 an die jeweils andere Verarbeitungseinrichtung 2 bzw. 3 übermittelt werden, damit beide Verarbeitungseinrichtungen 2 und 3 synchron zueinander betrieben werden können oder einfach nur gegenseitig über die jeweilige Interaktion bzw. Lage informiert sind.

Die beiden Verarbeitungseinrichtungen 2 und 3 weisen jeweils eine Visuell-Signalisierungsstufe 26 auf, die im Wesentlichen durch jeweils eine LED gebildet ist, die von dem jeweiligen Funkmodul 6 bzw. 8, mit dem sie verbunden ist, angesteuert wird. Die Visuell-Signalisierungsstufe 26 dient z.B. der Anzeige einer Übertragungsaktivität oder auch der Anzeige eines Ladezustands der Batterie 25 der jeweiligen Verarbeitungseinrichtung 2 bzw. 3.

Weiterhin weist jede der Verarbeitungseinrichtungen 2 und 3 ein Ausgabemodul 22 auf, das sich in einen Verstärker 22a bzw. 22b und einen damit gekoppelten Lautsprecher 23a bzw. 23b gliedert. Bei den Verstärkern 22a, 22b handelt es sich um eine I2C-Class-D-Amplifier, der über eine I 2 C- Verbdinung mit der jeweiligen Verarbeitungsstufe 4 bzw. 5 verbunden ist und dazu ausgebildet ist, von dort mit digitalen Audiodaten versorgt zu werden und draus ein entsprechend verstärktes Ausgabe-Audiosignal zu generieren, mit dem der Lautsprecher 22a bzw. 22b angesteuert wird.

Weiterhin weist jede der Verarbeitungseinrichtungen 2 und 3 eine Wechsel-Speichermedium-Lese/Schreib-Stufe 24 auf, mit deren Hilfe ein Wechselspeichermedium mit Daten beschreibbar ist oder Daten von dem Wechselspeichermedium auslesbar sind. Dabei kann es sich um Einstellungs- Daten, Benutzer-Daten, Audio-Daten oder auch Applikations-Daten usw. handeln, die dem System bzw. der jeweiligen Verarbeitungseinrichtung 2 oder 3 zugänglich gemacht werden oder von dort abgerufen werden. Auch kann damit eine Speichererweiterung für rechen- bzw. datenintensive Verarbeitungsaktivitäten bereitgestellt werden. Damit können auch ausführbare Applikationen auf physischem Weg, ggf. sogar verschlüsselt, in dem System 1 bereitgestellt werden.

Die Bezugszeichen 27 bis 29 sind nicht verwendet.

Nachfolgend ist mit Hilfe der Figur 5 auf die in jeder der Verarbeitungseinrichtungen 2 und 3 mit Hilfe der Verarbeitungsstufen 4 und 5 zur Anwendung kommende Signalverarbeitungskette 30 eingegangen.

In dieser Signalverarbeitungskette 30 werden eingangsseitig die zwei Gruppen Gl und G2 der Mikrofonsignale MSI - MS4 in eine ersten Signalverarbeitungsstufe 31 eingespeist. In der ersten Signalverarbeitungsstufe 31 sind alle Funktion zur ambisonics-bezogenen Signalverarbeitung unter Einbeziehung bzw. Berücksichtigung der Lagedaten LD und/oder der Interaktionsdaten ID, welche die ambisonics-bezogenen Signalverarbeitung betreffen, zusammengefasst. Hier wird z.B. ein gemäß dem Ambisonics-Format strukturierter Audiodatenstrom erzeugt, die Lagedaten LD des Gyroskops 21a bzw. 21b berücksichtigt, ein oder mehrere virtuelle Mikrofone definiert bzw. gesteuert, usw. Mit dieser Funktionalität generiert die erste Signalverarbeitungsstufe 31 aus den vier Mikrofonsignalen MS1-MS4 einen ersten Audiodatenstrom ADI, der in eine zweite Signalverarbeitungsstufe 32 eingespeist wird.

In der zweiten Signalverarbeitungsstufe 32 sind alle Funktionen zur hörkurvenanpassungs-bezogenen Signalverarbeitung unter Einbeziehung bzw. Berücksichtigung der Interaktionsdaten ID, welche die Hörkurvenanpassung betreffen, zusammengefasst. Eine Hörkurvenanpassung bewirkt, dass die Hörkurve eines beeinträchtigten Ohrs dahingehend korrigiert wird, dass sie an ein gesundes Ohr angenähert wird. Hierbei kommt im Wesentlichen ein statischer Equalizer zum Einsatz. Mit dieser Funktionalität generiert die zweite Signalverarbeitungsstufe 32 aus dem ersten Audiodatenstrom ADI einen zweiten Audiodatenstrom AD2, der in eine dritte Signalverarbeitungsstufe 33 eingespeist wird.

In der dritten Signalverarbeitungsstufe 32 sind alle Funktionen zur hörprofil-bezogenen Signalverarbeitung unter Einbeziehung bzw. Berücksichtigung der Interaktionsdaten ID, welche die Hörprofil-Einstellungen betreffen, zusammengefasst. Unter einem Hörprofil sind jene auf das betreffende Ohr bzw. die betreffende Person abgestimmten Audiosignal- Verarbeitungsparameter zusammengefasst, welche die Verständlichkeit von Sprache, die Teilnahme an einer Gruppendiskussion, das Anhören von Musik, usw. verbessern bzw. positiv beeinflussen. Wird das jeweilige Hörprofil aktiviert, also bei der Signalverarbeitungskette zum Einsatz gebracht, wird die Verständlichkeit von individueller Sprache verbessert, die Teilnahme an einer Gruppendiskussion erleichtert, die naturgetreue Wahrnehmbarkeit von Musik begünstigt usw. Mit dieser Funktionalität generiert die dritte Signalverarbeitungsstufe 32 aus dem zweiten Audiodatenstrom AD2 einen dritten Audiodatenstrom AD3, der in eine vierte Signalverarbeitungsstufe 34 eingespeist wird.

In der vierten Signalverarbeitungsstufe 34 sind alle Funktionen zur hörgerätefunktion-bezogenen Signalverarbeitung unter Einbeziehung bzw. Berücksichtigung der Interaktionsdaten ID, welche die Hörgerätefunktion- Einstellungen betreffen, zusammengefasst. Hierbei kann es sich beispielsweise um „Quality-Of-Life Improvements" z.B. zusätzliche Störlärmfilterung, Echo/Hallfilterung et cetera handeln. Hier können auch Plugins eingebunden werden, die selbst definiert/heruntergeladen werden können. Mit dieser Funktionalität generiert die vierte Signalverarbeitungsstufe 32 aus dem dritten Audiodatenstrom AD3 einen vierten Audiodatenstrom AD3, der mittels des zuvor erwähnten Ausgabemoduls 22 an das Ohr 102, 103 der das System 1 tragenden Person 35 abgegeben wird.

Abschließend ist aus Gründen der Klarheit noch erwähnt, dass die als strukturelle Blöcke dargestellten Signalverarbeitungsstufen 31 bis 34 im Wesentlichen auf Softwaremodulen basieren können, wobei natürlich auch eine auf die jeweilige Funktion optionierte Hardware, ggf. eine programmierbare in Kombination mit Software, zur Anwendung kommen kann.

Im Folgenden ist mit Hilfe der Figur 6 die Struktur des physischen Aufbaues der Verarbeitungseinrichtung 2 bzw. 3 erörtert. Die beiden Verarbeitungseinrichtungen 2 und 3 gliedern sich wie folgt.

Sie weisen eine Lautsprecherkapsel 36 auf, die für den Einsatz im äußeren Gehörgang ausgelegt ist und den Lautsprecher 23a bzw. 23b in einem Gehäuse aufnimmt.

Sie weisen weiters ein erstes flexibel verformbares Verbindungselement 37 auf, das im Wesentlichen aus einem Körper bestehend aus verformbarem Kunststoff, insbesondere aus Polyurethan- Kunststoff oder Silikon, gebildet ist.

Sie weisen weiters ein starres erstes Gehäuse 38 auf, das einen ersten berührungssensitiven Teil 39 des ersten Touchstrips 20a zeigt, sodass der berührungssensitive Teil 39 beim Tragen der Verarbeitungseinrichtung 2 bzw. 3 am Kopf seitlich oder nach vorne orientiert oder schräg nach vorne orientiert möglichst ungehindert durch die Ohrmuschel an dem ersten Gehäuseteil zugänglich bzw. berührbar ist.

Sie weisen weiters ein zweites flexibel verformbares Verbindungselement 40 auf, das im Wesentlichen aus einem Körper bestehend aus verformbarem Kunststoff, insbesondere aus Polyurethan- Kunststoff oder Silikon, gebildet ist.

Sie weisen weiters ein starres zweites Gehäuse 41 auf, das einerseits an die Form der äußeren Ohrmuschel von ihrem vorderen bis hin zu ihrem hinteren Bereich angepasst geformt ist, um zwischen der Ohrmuschel und der Schädeldecke aufgenommen zu werden, und das andererseits so groß ausgelegt ist, dass es abgesehen von dem Lautsprecher 23a bzw. 23b und dem ersten berührungssensitiven Teil 39 der Touchstrips 20a die verbleibenden elektronischen Komponenten der Verarbeitungseinrichtung 2 bzw. 3 aufnimmt. Diese elektronischen Komponenten sind kabelgebunden mit dem ersten berührungssensitiven Teil 39 der Touchstrips 20a und dem Lautsprecher 23a bzw. 23b verbunden, was aus Gründen der Übersichtlichkeit nicht dargestellt ist. Das zweite Gehäuseteil 41 beinhaltet also jeweils ein Verarbeitungsmodul der entsprechenden Verarbeitungseinrichtung 2 bzw. 3. Das Verarbeitungsmodul weist in dieser Ausführung die jeweilige Verarbeitungsstufe 4 bzw. 5, jeweils die zwei Funkmodule 6 und 9 bzw. 8 und 7, jeweils zwei Mikrofone 10 und 11 bzw. 12 und 13, das jeweilige Gyroskop 21a bzw. 21b sowie die jeweilige Visuell-Signalisierungsstufe (hier nicht dargestellt) auf. Äußerlich sichtbar sind an dem zweiten Gehäuse 41 ein zweiter berührungssensitiven Teil 42 des zweiten Touchstrips 20b, wobei der zweite berührungssensitive Teil 42 vorwiegend zur Lautstärkeneinstellung eingesetzt wird, und ein magnetisch haltender Anschluss 43 bzw. dessen Kontaktfeld, das sechs Kontaktierungselemente zeigt.

Bei der ersten Verarbeitungseinrichtung 2 ist an dem zweiten Gehäuse 41 an seinem vorderen Ende das erste Mikrofon 10 bzw. dessen Schalleinlass-Öffnung(en) vorhanden, was jedoch in der gewählten Perspektive der Figur 6 nicht sichtbar ist. Weiters ist an dem zweiten Gehäuse 41 der ersten Verarbeitungseinrichtung 2 das zweite Mikrofon 11 bzw. dessen Schalleinlass-Öffnung(en) sichtbar.

Analog ist bei der zweiten Verarbeitungseinrichtung 3 an dem zweiten Gehäuse 41 an seinem vorderen Ende das dritte Mikrofon 12 bzw. dessen Schalleinlass-Öffnung(en) vorhanden, was jedoch in der gewählten Perspektive der Figur 6 nicht sichtbar ist. Weiters ist an dem zweiten Gehäuse 41 der ersten Verarbeitungseinrichtung 2 das vierte Mikrofon 13 bzw. dessen Schalleinlass-Öffnung(en) sichtbar.

In weiterer Folge ist auf die Figur 7 eingegangen, in der die Verarbeitungseinrichtung 2 bzw. 3 im Unterschied zur Figur 6 zusammengesetzt dargestellt ist. Die Bereiche des starren zweiten Gehäuseteils 41 sind hier bereichsweise transparent bzw. freigeschnitten dargestellt, um den Blick auf darin angeordnete Baugruppen bzw. elektronische Komponenten freizugeben. So sind in dieser Darstellung in einem oberen Bereich 44A die erwähnten integrierten Schaltkreise wie auch analoge Elektronikkomponenten für die Funkmodule 6 und 9 bzw. 8 und 7, für das Eingabemodul 20 und für die Verarbeitungsstufen 4 bzw. 5 angeordnet. In einem hinteren Bereich 44B ist eine elektrische Versorgung, die im vorliegenden Fall mit zwei wiederaufladbaren knopfzellenartigen Batterien 25 realisiert ist, und ein mit Hilfe der jeweiligen Verarbeitungsstufe 4 bzw. 5 ansteuerbare bisher noch nicht dargestelltes Haptik-Modul 45 angeordnet.

Weiters ist in der Figur 7 ein optionales an dem magnetisch haltenden Anschluss 43 angeschlossenes Erweiterungsmodule 51 dargestellt. In einer nicht abschließenden Aufzählung kann es sich hierbei um folgende Modularten handeln: ein Batterielademodul 46, einen Mikrofonwürfel (nicht dargestellt), einen Klinkenstecker-Adapter 47, einen USB-Adapter 48, ein mit dem System 1 logisch verknüpfbares Funkgerät 49, mit dessen Hilfe Audiooder Einstellungsdaten von einem anderen Gerät, mit dem das Funkgerät 49 dann z.B. per USB-Anschluss verbunden ist, per Funk an das System 1 übertragbar sind oder umgekehrt, eine Mikrofonerweiterung 50, usw.

Die wiederaufladbaren Batterien 25 können somit mittels des Batterielademoduls aufgeladen werden. Auch kann eine Dockingstation vorgesehen sein, in die die beiden Verarbeitungseinrichtungen 2 und 3 mit Hilfe des Anschlusses 43 koppelbar sind, sodass das Laden der Batterien 25 in der Dockingstation passieren kann.

Grundsätzlich kann das System 1 zur Verarbeitung von Ambisonics gemäß einer höheren Ordnung als dies durch die im System 1 fest installieren Mikrofone 1 bis 13 angedacht ist (im vorliegenden Fall ist dies die erste Ordnung) ausgelegt sein. Dieser Umstand erlaubt es, an den Anschluss 43 weitere Mikrofone anzuschließen und somit die höhere Ordnung zu verwenden, und zwar ohne, dass eine Änderung des Grunddesigns des Systems 1 nötig wäre.

Nachfolgend ist unter Bezugnahme auf die Figur 8 das im System 1 integrierte Userinterface mit einer beispielhaften Menübelegung des ersten berührungssensitiven Teils 39 der Touchbar 20 für beide der Verarbeitungseinrichtungen 2 und 3 und die damit steuerbaren Funktionen des Systems 1 erörtert. Im vorliegenden Fall ist die Menübelegung derart definiert, dass bei der zweiten Verarbeitungseinrichtung 3 die obere Hälfte des ersten berührungssensitiven Teils 39 eine erste Profilzone 53 zur Auswahl eines ersten Profils für die Signalverarbeitungskette 30 definiert und die untere Hälfte des ersten berührungssensitiven Teils 39 eine dritte Profilzone 55 zur Auswahl eines dritten Profils für die Signalverarbeitungskette 30 definiert. Weiterhin ist die Menübelegung derart definiert, dass bei der ersten Verarbeitungseinrichtung 2 die obere Hälfte des ersten berührungssensitiven Teils 39 eine zweite Profilzone 54 zur Auswahl eines zweiten Profils für die Signalverarbeitungskette 30 definiert und die untere Hälfte des ersten berührungssensitiven Teils 39 ebenfalls die dritte Profilzone 55 zur Auswahl des dritten Profils für die Signalverarbeitungskette 30 definiert.

Die drei Profile für die Signalverarbeitungskette 30 fassen die jeweiligen Signalverarbeitungseinstellungen bzw. Signalverarbeitungsparameter zusammen, die je nach aktiviertem Menü bei der Signalverarbeitungskette 30 zum Einsatz kommen sollen.

Eine Berührung einer der Profilzone (obere oder untere Hälfte) des betreffenden berührungssensitiven Teils 39 wählt das jeweilige zugehörige Profil 53 - 54 aus, um es bei der Signalverarbeitung der Mikrofonsignale MSI - MS4 zur Anwendung zu bringen. Dies geschieht in Echtzeit, während die Person 100 das System 1 trägt und die Signalverarbeitungskette 30 durchlaufen wird. Der Profil Übergang zwischen dem gerade aktiven Profil und dem durch die Berührung der jeweiligen Zone ausgewählten Profils erfolgt dabei bevorzugt fließend, was auch als „faden" bezeichnet wird und geplant eine gewisse Zeit in Anspruch nimmt, wie beispielhaft ein bis drei Sekunden, bevorzugt ca. 2 Sekunden, sodass ein flüssiger Übergang in das ausgewählte und daher zum Einsatz zu bringende Profil geschaffen wird. Abrupte Signalverarbeitungswechsel, die mitunter als störend oder Fehlfunktion interpretiert werden könnten, werden damit zuverlässig vermieden.

Die Software des Systems 1, also jeder Verarbeitungseinrichtung 2 bzw. 3, erlaubt jedoch auch eine „Halten und Wischen" Funktionalität, die im Fachjargon als „drag and drop" Funktionalität bezeichnet wird, was auf vorteilhafte Weise im Kontext des Systems 1 dazu eingesetzt wird, um Profile miteinander zu mischen. Dabei berührt die Person zunächst eine der Profilzonen 53 - 55, belässt den Finger auf ihr und zieht den Finger dann in die benachbarte Profilzone, bevor der Finger von dem berührungssensitiven Element abgehoben wird. Dies wird softwaremäßig so interpretiert, dass die den beiden durch die Finger überstrichenen Profilzonen zugeordneten Profile zu mischen sind. Wenn beispielsweise bei der rechten, zweiten Verarbeitungseinrichtung 3 mit dem Finger bei dem ersten Profil begonnen wird und nach unten hin zu dem dritten Profil gewischt bzw. gestrichen wird, dann werden die für die Signalverarbeitungskette 30 gemäß dem ersten Profil zutreffenden Signalverarbeitungseinstellungen mit jenen des dritten Profils gemischt. Macht man dasselbe bei der linken, ersten Verarbeitungseinrichtung 2, so mischen sich die Signalverarbeitungseinstellungen des zweiten Profils mit jenen des dritten Profils. Zudem lässt sich der Grad des Mischens (oder in anderen Worten das Mischverhältnis) der beiden zu mischenden Profile durch die Weite der „drag and drop" Bewegung (defacto zwischen 0 und 100%) einstellen. Beispielhaft sei in diesem Zusammenhang angenommen, dass das erste Profil der Signalverarbeitungskette 30 auf natürliches Gehör (Home-Einstellung) ausgelegt wurde und das dritte Profil der Signalverarbeitungskette 30 als ein Autofokus auf Sprachsignale programmiert wurde, sodass der Beamformer in der ersten Signalverarbeitungsstufe 31 immer einen Sprachvektor wählt und der DSP (DSP steht hier für den englischen Begriff „Digtal Signal Prozessor") der dritten Signalverarbeitungsstufe 33 auf Sprache eingestellt ist. Wenn man nun die erste Profilzone 53 berührt, hält und dann nach unten wischt, so nähert sich das stabile „Home" Profil dem kompromisslosen Sprach-Autofokus an. Vorteilhaft kann jedoch das Mischverhältnis von der Weite der Fingerbewegung gesteuert werden, also in Echtzeit dynamisch angepasst werden. Im Ergebnis wird also ein auf normales Hören optimiertes Audiosignal mit einem auf Sprache optionierten Audiosignal gemäß dem gewählten Mischverhältnis gemischt.

Mit Hilfe der „drag and drop" Funktionalität kann der Benutzer auch, solange sein Finger im „drag"-Zustand auf dem berührungssensitiven Element anliegt, dort jedoch bewegt wird, zwischen den beiden Profilen dynamisch hin und herwechseln bzw. den Mischgrad dynamisch verändern, um z.B. auszuloten, welches Mischverhältnis für ihn am besten passt oder um z.B. bewusst zwischen zwei Mischverhältnissen hin und her zu wechseln, um in kurzen Zeitabständen seine akustische Wahrnehmung gemäß dem ersten Profil oder dem zweiten Profil temporär zu optimieren. Erst wenn er den Finger von dem berührungssensitiven Element abhebt, ist das zu diesem Zeitpunkt eingestellte Mischverhältnis fixiert.

Weiters kommt der Benutzer bzw. User, also die das System 1 tragende Person 100, mit einer „swipe" Geste nach oben oder unten, also mit einer das berührungssensitive Element berührenden raschen Streichbewegung des Fingers über die beiden Zonen, stets wieder zurück in den ursprünglichen, stabilen Hörmodus (das „Home" Profil), egal, ob diese „swipe" Geste bei der ersten Verarbeitungseinrichtung 2 oder der zweiten Verarbeitungseinrichtung 3 ausgeführt wird.

Somit lässt sich auch ohne ein externes Gerät, wie z.B. ein Smartphone oder ein Tabletcomputer usw. eine komplexe Befehlskette einfach steuern, die in jedes Element der Signalverarbeitungskette 30 eingreifen kann, soweit dies nötig ist.

Somit kann das ganze System 1 auf berührbare Weise steuerbar gemacht werden. Wie erwähnt, ist die Touchbar 20 frei belegbar und kann praktisch sämtliche System parameter, also die Einstellungen der Signalverarbeitungskette 30 steuern. Damit kann der User in Echtzeit in seine Soundrealität eingreifen. Wie erwähnt lassen sich damit auch dynamische Profile generiert werden, wobei die auf die Touchbar 20 gelegten Profile wie erörtert untereinander gemischt werden. Damit lassen sich z.B. komplexe DSP-Funktionen einfach steuern und der User hat das Gefühl, er interagiert mit dem Sound. Das bei bekannten Systemen oft als nachteilig wahrgenommene Gefühl des Users, er würde nur Programme mit einem Plastikknopf wechseln, wird somit völlig vermieden.

Zudem kann sich das Benutzer-Interface, z.B. auch als Folge einer gerade durchgeführten Interaktion oder auf Grund externer Umstände, die z.B. über die Auswertung des eintreffenden Schalls ermittelt wurden, dynamisch an den User anpassen.

Das Benutzer-Interface kann auch kurzzeitig seinen Zustand ändern und dabei z.B. bei einem über ein Smartphone eingehenden Anruf, was dem System 1 über z.B. eine Bluetooth-Verbindung mit dem Smarthone mitgeteilt wird, währen des Klingelns die Funktion eines Anruf-Annahmeknopfs bereitstellen. Die kurzzeitige Änderung kann jedoch auch durch die Auswertung des eintreffenden Schalls bedingt sein, wenn dies auf Grundlage der Auswertung als nötig erscheint.

Ebenso kann eine Zone (z.B. die obere Hälfte) des Touchstrips 20a bzw. 20b z.B. der Funktion „Speech Autofocus" zugeordnet sein. Durch ein Tippen im oberen Bereich des mit diesem Menüpunkt belegten Touchstrips 20a bzw. 20b wird dann ein spezielles Plugin (also eine Softwarekomponente) in den Verarbeitungsstufen 4 und 5 ausgeführt, mit deren Hilfe das Schallfeld auf Sprecher durchsucht wird und eine oder mehrere virtuelle Mikrofone auf diese Schallquellen bzw. Raumbereiche oder Richtungsbereiche, in denen die Schallquellen identifiziert wurden, ausgerichtet werden.

Analog dazu lässt sich über die Touchbar 20 eine Funktion „einfach- nur-hören" aktivieren. Dies kann ein völlig stabiles Hörprogramm sein, das jedoch an die Hörkurve des Benutzers des Systems 1 angepasst ist und sich daher für ein natürliches Hörempfinden eignet bzw. dazu führt. Bei dieser Funktion würde ein Mix aus omnidirektional und/oder z.B. nierenförmig direktional erfassten Audiosignalen bestehen (Vektor nach vorne, Front of User). Der Mix der individuellen Mikrofonsignal MSI - MS4 wird festgelegt, was durch binaurale (Lokalisations-)Hörtests ermittelt wird. Der Frequenzgang (inkl. Kompressorwerte) ergibt sich aus einem binauralen (Frequenz-)Hörtest. Das Pol ar- Pattern, also die zur Anwendung kommende Richtcharakteristik, wird durch den Mix mehrerer virtueller Mikrofone erzeugt. Dies gilt im Übrigen für alle Programme dieses Systems 1. Der Unterschied hier ist lediglich der, dass der Mix absolut statisch ist. Dass der Mix stabil ist bedeutet, dass im laufenden Betrieb keinerlei Automatismen eingreifen. Die Lokalisierungsfähigkeit wird durch binauralen Mixdown, was im Kontext von Ambisonics bekannt ist, wieder hergestellt.

Dieses „einfach-nur-hören" Profil bildet auch die Grundlage aller anderen Profile, mit dem Unterschied, dass andere Profile frei definierbare virtuelle Mikrofone beliebiger Art und Anzahl (limitiert auf Ordnung des Mikrofonarrays 10 - 13; bei dem vorliegenden Ausführungsbeispiel ist es First Order Ambisonics) erstellen können und frei mischen können. Ein Beispiel dafür ist eine auf dem Touchstrip 20a bzw. 20b abrufbare Funktion „Noise- Cancelling" (= Geräuschunterdrückung), welche über ein dynamisches Verhalten verfügt. Bei aktivem „Noise-Cacellation" Profil wird laufend die Umgebung analysiert und Störschall im Schallfeld wird vollautomatisch selektiv entfernt. Diese Funktion sucht und unterdrückt permanente (Störgeräusche, wobei gleichzeitig Musik, zu beachtende Umgebungsgeräusche und Sprache für den User durchgängig wahrnehmbar bleibt. Die Signalverarbeitungskette 30 passt sich also dynamisch an die örtliche und zeitliche Dynamik des Störschalls an.

Ganz allgemein ist festzuhalten, dass mit einer steigenden Anzahl von Mikrofonen (und damit Achsen) die Komplexität/Tiefe der Schallfeldabtastung gesteigert werden kann. Damit kann man dann natürlich genauere Berechnungen anstellen (engere Trichter des virtuellen Mikrofones, akkuratere 3D-Felddarstellung im Mixdown, akkuratere Energieverteilungsinformationen / Schalldruckvektoren etc.). Je höher die Ambisonics-Ordnung ist, desto feiner wird die inhaltliche wie auch örtliche Auflösung des Systems 1. Diese Ordnung steigt mit der Anzahl der Mikrofone. Ab einer Anzahl von 4 Mikrofonen pro Gerät, also pro Verarbeitungseinrichtung 2 bzw. 3 (2x4 / 1x8 Matrix) würde jede einzelne Verarbeitungseinrichtung 2 bzw. 3 (also beide Herables) in die erste Ordnung der sphärischen Harmonik einsteigen.

Das Haptik-Modul 45, das auch als ein Feedbackmodul bezeichnet werden kann, gibt dem Benutzer, also der Person, die das System 1 trägt bzw. benutzt, unter den verschiedensten Betriebsbedingungen Feedback, etwa wenn die Touchbar 20 bzw. die jeweiligen Touchstrips 20a bzw. 20b berührt wurden oder das System 1 im laufenden Normalbetrieb etwas mitteilen möchte. Dieses Feedbackmodul dient dazu, unterbrechungsfreie „Notifications", also Mitteilungen, an den Benutzer zu ermöglichen. Das Soundbild, welches durch das System 1 für den Benutzer generiert wird, wird damit etwa bei Lautstärke- oder Programmwechsel usw. nie durch das haptisch wahrnehmbare Feedback gestört, weil somit ein Feedback ohne akustische Unterbrechung oder akustische Überlagerung gegeben ist.

Im Weiteren wird die Funktion des Systems 1 anhand der Figuren 9 und folgende Figuren erörtert, wobei die Figur 9 eine beispielhafte Schallfeldanordnung in der Umgebung des Systems 1 zeigt. In der Figur 9 sind um den Benutzer des Systems 1 (die Person 100) diverse Schallquellen 60, 61, 62 bzw. 63, die nichts mit Sprache zu tun haben, und fünf Sprecher 64, 65, 66, 67 bzw. 68 die Schallquellen für Sprache (hier sind die Köpfe von Sprechern symbolisiert und ihre Blickrichtung durch die Spitze der Dreiecksymbole bzw. Pfeile angedeutet) bilden, dargestellt. Schall, der von den verschiedenen Schallquellen 60 bis 68 ausgesandt wird, wird mit den Mikrofonen 10 bis 13 empfangen und kann im System 1 automatisch zugeordnet werden (Sprache oder andere Schallereignisse). Je nach Konfiguration, also Einstellungen in der Signalverarbeitungskette 30, kann das System 1 auf bestimmte Schallquellen 60 bis 68 mit Hilfe von einem virtuellen Mikrofon fokussieren. Bei einem virtuellen Mikrofon wird digital über die Signalverarbeitungskette 30 eine gewünschte Richtcharakteristik 69 definiert. So ist beispielsweise in der Figur 10A der Fokus des virtuellen Mikrofons auf die beiden Sprecher 65 und 66 im linken oberen Quadranten (links vorne in Bezug auf die Person 100) gelegt. In der Figur 10b ist demgegenüber der Fokus auf die im rechten oberen Quadranten (rechts vorne in Bezug auf die Person 100) gelegene allgemeine Schallquelle 60 gelegt. Die jeweilige Orientierung des „Schalltrichters" des virtuellen Mikrofons determiniert also, aus welcher Richtung bei dem System 1 eintreffender Schall, gegebenenfalls noch unter Einwirkung spezieller Signalverarbeitungsmaßnahmen in der Signalverarbeitungskette 30, an die Ohren der Person 100 abgeben wird.

Das System 1 stellt also die Funktion bereit, die zwei Verarbeitungseinrichtungen 2 und 3, die am Ohr 102 und 103 der Person 100 getragen werden, zu kombinieren, indem die Signale aller Mikrofone, die auf die beiden Verarbeitungseinrichtungen 2 und 3 verteilt sind, gegenseitig übertragen werden, um einen einzigen Beamformer zu bilden, der alle verfügbaren Mikrofone innerhalb des Systems 1 nutzt.

Die zuvor erörterte beispielhafte Ausrichtung des virtuellen Mikrofons kann grundsätzlich vollautomatisch erfolgen. So können ein oder mehrere virtuelle Mikrofone automatisch auf Sprecher 65 bis 68 ausgerichtet werden, ggf. auch Sprecher gruppenweise erfassen, bzw. je nach Auftreten der Sprache aus diesen Richtungen sequenziell oder auch gleichzeitig auf die jeweiligen Sprecher 65 bis 68 fokussiert werden.

Um jedoch den Benutzer, also der Person 100, des Systems 1 volle Kontrolle über sein Hörerlebnis zu ermöglichen, kann eine auf einem mobilen Gerät des Benutzers (mobiles Benutzergerät, z.B. ein Smartphone 70) installierte Softwareapplikation, kurz App, genutzt werden, die z.B. über eine Bluetooth-Verbindung mit dem System 1 kommuniziert.

Das visuelle Benutzerinterface dieser App ist beispielhaft in den Figuren 11A bis HD visualisiert, wobei die Figur 11A das Smartphone 70 des Benutzers und den Bildschirminhalt 89 zeigt. Hier sind innerhalb eines Kreises 71 drei Schallquellen 72 bis 74 visualisiert, in deren Zentrum der Benutzer, also die das System 1 verwendende Person 100, visualisiert ist. Korrespondierend zu den Schallquellen 72 bis 74 sind Schallrichtungssektoren 72a 73a und 74a visualisiert, die anzeigen, aus welchen Richtungsbereichen der Schall der jeweiligen Schallquellen 72 bis 74 empfangen wird. Die Schallrichtungssektoren 72a 73a und 74a lassen sich durch eine Richtung und eine Trichterbreite (Winkelsektor) definieren. Die Trichterbreite kann beispielsweise mit Hilfe eines Schiebe-Elements 78 verändert bzw. angepasst werden, wodurch sich einzelne Schallquellen 72 bis 74 präzise isolieren lassen, also Umgebungsschall weitgehend ausgeblendet wird, oder auch Umgebungsschall, der aus der Umgebung der Schallquelle 72 bis 74 kommt, im weiterzuverarbeitenden Audiosignal zugelassen wird oder auch Gruppen von benachbarten Schallquellen 72 bis 74 gemeinsam zugelassen werden. Darunterliegend sind drei Auswahlelemente 79, 80 und 81 aktivierbar, mit deren Hilfe voreingestellte Trichterbreiten unmittelbar anwählbar sind. Entlang des Kreises 71 lässt sich ein 360°- ichtungsslider 75 bewegen, der zur Justierung der Ausrichtung im Schallfeld dient. Ein Streaming-Element 76 kann aktiviert werden, um eine externe Audio-Streaming-Quelle (nicht dargestellt) in die Signalverarbeitungskette 30 des Systems 1 einzubinden. Dies kann beispielsweise das Smartphone 70 selbst sein. Ein Fixier-Element 77 kann aktiviert werden, um zumindest eine zuvor ausgewählte Schallquelle 72 bis 74 fortwährend zu fixieren, sodass auch bei Kopfbewegungen des Benutzers diese ausgewählte Schallquelle 72 bis 74 im Fokus bleibt.

Die Figur 11B bis HD zeigen nun die Auswahl einer Schallquelle mit Hilfe des Mobiltelefons 70, wobei hierbei nur noch auf den wesentlichen Bildschirminhalt fokussiert ist. Im vorliegenden Fall ist davon ausgegangen, dass der Benutzer die Schallquelle 72 auswählen möchte, was durch eine Berührung des die Schallquelle 72 anzeigenden Bildschirmbereichs erfolgt. Wie in der Figur 11C dargestellt ist, sind nun alle anderen Schallquellen 73, 74 ausgeblendet (strichliert). In weiterer Folge sind in der Figur 11D die User- Modifikationsmöglichkeiten visualisiert, welche die App dem User für eine ausgewählte Schallquelle 72 zur Verfügung stellt. Über die eingeblendeten drei Wahlelemente 82, 83, 84 lässt sich die ausgewählte Schallquelle 72 winkelmäßig verfolgen (Wahlelement 82), unterdrücken (Wahlelement 83) und isolieren (Wahlelement 84), wobei gemäß der Intention des Benutzers die Schaltfläche 84 aktiviert wird, was jedoch nicht explizit dargestellt ist. Mit Hilfe des Schiebe-Elements 78 bzw. einem der Auswahlelemente 79, 80 und 81 lässt sich nun die Trichterbreite festlegen, wobei die isolierte Schallquelle mit Umgebungsschall gemäß der Schiebereinstellung gemischt werden kann oder eine vordefinierte Trichterbreite (eng fokussiert, halbkreisförmig, omnidirektional) zur Anwendung kommt.

Die App erlaubt also die Orientierung wie auch die Parametrisierung des virtuellen Mikrofons und die Parametrisierung der weiteren Verarbeitung des mit Hilfe des virtuellen Mikrofons bereitgestellten Audiosignals in dem System 1. Es werden also in einer Funkkommunikation die Interaktionsdaten ID, welche die mit Hilfe der App festgelegten Einstellungen repräsentieren, von dem Mobiltelefon an die Verarbeitungseinrichtungen 2 und 3 kommuniziert, wo die Signalverarbeitungskette 30 entsprechend eingestellt wird.

Die hier erörterte App kann als ein „Environment-Tool" verstanden werden. Die App nutzt also die sphärischen Schallaufnahme-, Analyse- und Ausgabefähigkeiten des Systems 1, um das Schallfeld und deren Objekte zu analysieren, zu verarbeiten, auszugeben und eine manuelle Interaktion des Benutzers zuzulassen.

Weiterhin sei erwähnt, dass die vom Gyroskop 21a und/oder 21b generierten Lagedaten LD auch an das Smartphone 70 und somit an die dort ausgeführte App übermittelt werden können, um die Kopfbewegungen korrekt in Drehungen des Bildschirminhalts umzusetzen, also die realen Verhältnisse bezüglich der Orientierung wiederzugeben.

Im Weiteren ist die zuvor beschriebene Funktionalität anhand eines Anwendungsbeispiels erörtert. Dabei sei angenommen, dass ein hörbeeinträchtigter Benutzer, der das System 1 trägt, in einem Restaurant sitzt, in welchem ein reges Treiben herrscht. Es ist laut, viele Menschen sprechen, der Lärm von Klimaanlage und hektischer Küche erfüllt den (Schal I- )Raum. Es ist (ohne das System 1) sehr schwer, den Sitznachbarn zu verstehen, der Benutzer braucht seine volle Konzentration, um an der Unterhaltung teilnehmen zu können und kann seinen Restaurantaufenthalt gar nicht richtig genießen. Der Benutzer öffnet nun das „Environment Tool", also die App. Die App empfängt vom System 1 über eine Bluetooth- Verbindung die mit Hilfe des Systems 1 erfassten Schallfeldinformationen und analysiert die Szene und visualisiert die ermittelte Szene grafisch, was mit Hilfe der Figur 11A dargestellt ist. Der Benutzer kennt das Userinterface der App und nützt dieses, um seine Schallwahrnehmung zu optimieren. Er tippt am Bildschirm z.B. auf seinen Sitznachbarn (Schallquelle 72). Der Benutzer definiert damit die Anweisung, ein virtuelles Mikrofon auf die gewünschte Schallquelle 72 auszurichten. Da die gewünschte Schallquelle 72 ein Sprachsignal beinhaltet, wird die Signalverarbeitung (der Signalverarbeitungskette 30) automatisch auf Sprachverstehen hin optimiert.

Alternativ kann das System 1 wie erwähnt in einem Automatikmodus betrieben werden. In diesem Automatikmodus kann der Benutzer durch Interaktion (wie etwa Fingertippen auf eine der Verarbeitungseinrichtungen 2 oder 3) einer automatisch berechneten Abänderung der Schallwahrnehmung zustimmen. Alternativ kann das System 1 jedoch auch vollautonom betreiben werden, wobei keinerlei Interaktion des Benutzers mit dem System 1 notwendig wäre.

Im Endeffekt bedeutet dies, dass der User seinen Sitznachbarn nun besser versteht, durch die Umgebungsgeräusche nicht mehr gestört ist und seinen Restaurantaufenthalt endlich genießen kann, weil es ihm nun wesentlich leichter fällt, den Sitznachbarn zu verstehen und sich mit ihm flüssig zu unterhalten.

Der mit Hilfe des Systems 1 künstlich erzeugte Schalloutput kann zudem ein höheres Nutzsignal zu Störsignalverhältnis („Signal-to-noise-ratio") als der menschliche Hörsinn aufweisen. Dies hängt insbesondere von der Anzahl der Mikrofone ab. Daher ist es vorteilhaft, mehr als zwei Mikrofone pro Verarbeitungseinrichtung 2 bzw. 3 zu verwenden. Ein sphärisches Mikrofonarray kann nämlich bei ausreichender Auflösung, die mit der Anzahl der Mikrofone einhergeht, in Bezug auf die Isolationsfähigkeit einzelner Schallquellen den gesunden menschlichen Hörsinn in den Schatten stellen.

Die Extraktion von virtuellen Mikrofonsignalen hat besonders für hörbeeinträchtigte Menschen, einen enormen Wert, da diese Methode einen neuen Ansatz zur Lösung der „Ich verstehe dich nicht"-Situationen bildet. Erstmals kann somit in ausreichend kurzer Zeit eine Verarbeitung mehrerer Schallquellen mit dem Ziel, einen Gesprächspartner vernünftig zu verstehen, in einem Raum erfolgen, der eine sehr anspruchsvolle Schallumgebung bildet, wie dies etwa bei einer Cocktailparty (Komplexe / Laute / vielschichtige Soundumgebungen) der Fall ist, wo es schwer ist, etwas zu verstehen. In dieser Umgebung kann mit einem virtuellen Mikrofon problemlos auf den gewünschten Gesprächspartner oder mit mehreren virtuellen Mikrofonen sogar auf eine Vielzahl von Gesprächspartnern fokussiert werden, um das Problem des Sprach-Verständnisses in solchen komplexen Schallumgebungen zu lösen.

In weiterer Folge ist mit Hilfe der Figur 12 eine Internetanbindung des Systems 1 mit seinen verschiedenen Aspekten erörtert. Klargestellt sei hierbei, dass in dieser Darstellung aus Gründen der Übersichtlichkeit nicht alle Bezugszeichen eingetragen wurden.

Das System 1 kann über eine einzige systemexterne Funkverbindung 85A mit dem Internet 86, das mit Hilfe einer Wolke visualisiert ist, verbunden sein. Ist nur eine der beiden Verarbeitungseinrichtungen 2 bzw. 3 mit dem Internet 86 verbunden, ist es nötig, dass die beiden Verarbeitungseinrichtungen 2 und 3 ggf. untereinander synchronisiert werden, was z.B. durch eine systeminterne Funkverbindung 85B zwischen den beiden Verarbeitungseinrichtungen 2 bzw. 3 geschehen kann. Bevorzugt können jedoch beide Verarbeitungseinrichtungen 2 bzw. 3 mit dem Internet 86 verbunden sein, wofür eine zweite systemexterne Funkverbindung 85C zum Einsatz kommt. Die systemexternen Funkverbindungen 85A und 85C wie auch die systeminterne Funkverbindung 85B kann mit Hilfe der Funkmodule 6 bis 9 bzw. deren Zusammenwirken realisiert werden.

Die Anbindung an das Internet 86 kann jedoch auch leitungsgebunden über das entsprechend ausgebildet Erweiterungsmodul 51 erfolgen.

Über das Internet 86 kann das System 1 Daten mit einem über das Internet 86 verfügbaren Server 87 austauschen. Diese Funktionalität kann für verschiedenste Anwendungszwecke verwendet werden, die nachfolgend in nicht abschließender Weise aufgezählt sind. Weiterhin sei erwähnt, dass die zuvor erwähnten systemexternen Funkverbindungen 85A und 85C auch mit Hilfe des erwähnten mobilen Geräts 70 des Benutzers (Smartphone oder Tabletcomputer) realisiert sein können, wobei dann diese systemexternen Funkverbindungen 85A bzw. 85C durch die Internet-Connectivity 88 des mobilen Geräts 70 ersetzt werden.

So kann das System 1 beispielsweise Benutzer-(Identifikation)- Daten betreffend den Benutzer des Systems 1 und/oder System- (Identifikation)-Daten betreffend das System 1 am Server 87 speichern, um beispielsweise die Verarbeitungseinrichtungen 2 bzw. 3 auf eindeutiger Weise mit dem betreffenden Benutzer zu verlinken.

Der Server 87 kann jedoch auch als reiner Datenspeicher genutzt werden, wobei die Verarbeitungseinrichtungen 2 bzw. 3 zum Beispiel Rohdaten des erfassten Schallereignisses auf dem Server 87 Zwischenspeichern, um auch serverseitig die in den Verarbeitungseinrichtungen 2 bzw. 3 ablaufenden Signalverarbeitungen durchzuführen und ggf. auch weiterzuentwickeln bzw. zu optimieren. Gleiches gilt auch für das an den Benutzer des Systems 1 abzugebende Audiosignal, dessen zugrundeliegender vierter Audiodatenstrom AD4 ebenfalls an den Server 87 für die genannten Zwecke abgegeben werden kann. Analog kann auch mit den Zwischenergebnissen der Signalverarbeitungskette 30, nämlich mit den vorangehenden drei Audiodatenströmen ADI bis AD3 verfahren werden.

Der Server 87 kann jedoch auch dazu verwendet werden, einen sogenannten Plug-in-Store bereitzustellen. Darunter ist ein Software- Distributions-System zur kontrollierten Verteilung von Software- und/oder Audiodaten-Modulen zu verstehen, wobei diese Software- bzw. Audiodaten- Module gezielt an bestimmte Verarbeitungseinrichtungen 2 bzw. 3, ggf. benutzerspezifisch, ggf. nur gegen Bezahlung, ggf. nur gegen ärztliche Verordnung usw., abgegeben werden.

Der Server 87 kann auch dazu verwendet werden, ein Gateway zu weiteren digitalen Services oder Dienstleistern zu bilden. So können beispielsweise Drittanbieter auf die Verarbeitungseinrichtungen 2 bzw. 3 digital zugreifen, um beispielsweise Tests durchzuführen. Diese Tests können beispielsweise Hörtests sein, die von Audiologen, Krankenkassen bzw. (Gesundheits-)Versicherungen, unter manueller Anleitung oder vollautomatisch durchgeführt werden. Diese Tests können jedoch auch die technische Funktionalität des Systems 1, also der beiden Verarbeitungseinrichtungen 2 bzw. 3 betreffen, die im Fall einer Störungsvermutung, eines Störfalls oder auch einer Routineüberprüfung der Verarbeitungseinrichtungen 2 bzw. 3 zur Anwendung kommen, bevorzugt vollautomatisch zur Anwendung kommen.

Der Server 87 kann auch als Quelle für eine Gesundheitsdatenbank dienen, in die von den Verarbeitungseinrichtungen 2 bzw. 3 ermittelte Höhr- Charakteristika der betroffenen Person 100 eingespielt werden, um das gesamtheitliche Gesundheitsbild der Person 100 automatisch zu vervollständigen und insbesondere über den zeitlichen Verlauf zu dokumentieren. In umgekehrter Weise können z.B. beim Austausch einer der Verarbeitungseinrichtungen 2 bzw. 3 die bereits ermittelten Höhr- Charakteristika der Person 100 vom Server 87 geladen werden und eine Grundeinstellung der Signalverarbeitungskette 30 der neuen Verarbeitungseinrichtung 2 bzw. 3 vorgenommen werden.

Der Server 87 kann auch als „Audio-Logistik-Interface" (Communication, Secure-Programing-Line) verwendet werden. Hierbei geht es darum, dass zertifizierte Stellen (Arzt/Audiologe) einen speziellen Kommunikationskanal zu den Verarbeitungseinrichtungen 2 bzw. 3 bekommen, um Parameter beeinflussen zu können, die Fachpersonal vorbehalten sind. Dies können beispielsweise Parameter sein, die potenziell gefährlich für das Hörvermögen sind und nur von geschultem Fachpersonal bedient werden sollten.

Die Anbindung an das Internet 86 und die Serverdienste erlauben also eine variable und individuelle Erweiterung der Funktionalitäten des Systems 1.

Auch wenn bisher die Funktion des Systems 1 aus Gründen der vereinfachten Darstellung immer nur mit einem zweidimensionale Polar-Chart anhand von dort eingetragene Richtcharakteristiken erörtert wurde, sei an dieser Stelle bemerkt, dass die Richtcharakteristiken einen dreidimensionalen Charakter aufweisen. Somit kann auch jedes virtuelle Mikrofon (ggf. in gewissen Grenzen) dreidimensional ausgerichtet bzw. orientiert werden.

Weiterhin sei noch erwähnt, dass das System 1 auch in einem Notbetrieb betrieben werden kann, wenn die Funkverbindung(en) zwischen den beiden Verarbeitungseinrichtungen 2 und 3 nicht bestehen oder abgebrochen sind. Jede der Verarbeitungseinrichtungen arbeitet dann autonom weiter, das System ermöglicht dann jedoch kein binaurales Hören mehr.

Weiterhin sei erwähnt, dass die vom Gyroskop 21a und/ oder 21b generierten Lagedaten LD auch an einen allgemeinen Computer (Desktop oder Laptop oder Tabletcomputer, usw.) übermittelt werden können, dort zur Steuerung eines Bildschirm-Pointers benutz zu werden. Das an den Computer gekoppelte System 1 simuliert also eine Pointing-Device, wie z.B. einen Laserpointer, der mit der Hand geführt wird, um die Kopfbewegungen in Bewegungen eines virtuellen Laserpunkts am Bildschirm des Computers umzusetzen. Es wird abschließend noch einmal darauf hingewiesen, dass es sich bei den vorangehend detailliert beschriebenen Figuren nur um Ausführungsbeispiele handelt, welche vom Fachmann in verschiedenster Weise modifiziert werden können, ohne den Bereich der Erfindung zu verlassen. Es wird der Vollständigkeit halber auch darauf hingewiesen, dass die Verwendung der unbestimmten Artikel „ein" bzw. „eine" nicht ausschließt, dass die betreffenden Merkmale auch mehrfach vorhanden sein können.