Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
PROCESSING DEVICE, IN PARTICULAR HEADPHONES OR HEARING AID, FOR PROCESSING MICROPHONE SIGNALS INTO AN AUDIO DATA STREAM
Document Type and Number:
WIPO Patent Application WO/2024/068868
Kind Code:
A1
Abstract:
The invention relates to a processing device (2, 3), in particular headphones or a hearing aid, - wherein the processing device (2, 3) has a signal processing chain (30) that is designed to process microphone signals (MS1 – MS4), in accordance with values or settings of signal processing parameters of a profile, into an audio data stream, wherein a first profile and a second profile are provided, and - wherein the processing device (2, 3) is designed, taking into consideration interaction data (ID), to change the values or settings of the signal processing parameters of the first profile to such values or settings of the signal processing parameters of the second profile, or vice versa, wherein the interaction data represent a user interaction detected as a movement, in particular a movement known as "hold and swipe".

Inventors:
RETTER MICHAEL (AT)
SCHWEIGHOFER DAVID (AT)
Application Number:
PCT/EP2023/076943
Publication Date:
April 04, 2024
Filing Date:
September 28, 2023
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
MIC AUDIO SOLUTIONS GMBH (AT)
International Classes:
H04R25/00
Domestic Patent References:
WO2016004996A12016-01-14
Foreign References:
EP3358812A12018-08-08
US20170199643A12017-07-13
US20110091059A12011-04-21
US20080292126A12008-11-27
US20090123013A12009-05-14
Attorney, Agent or Firm:
SCHNEIDER, Michael (AT)
Download PDF:
Claims:
Ansprüche

1. Verarbeitungseinrichtung (2, 3), insbesondere Kopfhörer oder Hörgerät, wobei die Verarbeitungseinrichtung (2, 3) eine Signalverarbeitungskette (30) aufweist, die zur Verarbeitung von Mikrofonsignalen (MSI - MS4) gemäß Werten bzw. Einstellungen von Signalverarbeitungsparametern eines Profils in einen Audiodatenstrom ausgebildet ist, wobei ein erstes Profil und ein zweites Profil vorgesehen sind, und wobei die Verarbeitungseinrichtung (2, 3) dazu ausgebildet ist, unter Berücksichtigung von Interaktionsdaten (ID) die Werte bzw. Einstellungen der Signalverarbeitungsparameter des ersten Profils hin zu jenen Werten bzw. Einstellungen der Signalverarbeitungsparameter des zweiten Profils zu verändern oder umgekehrt, wobei die Interaktionsdaten eine als Bewegung erfasste Benutzerinteraktion, insbesondere eine als „Halten und Wischen" bekannten Bewegung, repräsentieren.

2. Verarbeitungseinrichtung (2, 3) gemäß Anspruch 1, die ausgebildet ist, mittels einer Funkverbindung die Interaktionsdaten (ID) von einer externen Interaktionsquelle zu empfangen und zu nutzen.

3. Verarbeitungseinrichtung (2, 3) gemäß Anspruch 1, die ein Eingabemodul (20) mit einem flächenhaften Interaktionsbereich aufweist, wobei das Eingabemodul (20) dazu ausgebildet ist, in dem Interaktionsbereich eine Bewegung, insbesondere eine Wischbewegung, als Benutzerinteraktion zu erfassen und die diese Benutzerinteraktion repräsentierende Interaktionsdaten (ID) bereitzustellen.

4. Verarbeitungseinrichtung (2, 3) nach Anspruch 3, die dazu ausgebildet ist, in dem flächenhaften Interaktionsbereich zumindest zwei verschiedene Menübereiche zu definieren, wobei dem jeweiligen Menübereich eines der beiden Profile zugeordnet ist.

5. Verarbeitungseinrichtung (2, 3) nach Anspruch 3, wobei das Eingabemodul (20) zumindest eine Touchbar aufweist oder als Touchbar realisiert ist.

6. Verarbeitungseinrichtung (2, 3) nach Anspruch 5, die derart konfiguriert ist, dass die Touchbar beim Tragen am Kopf am vorderen Rand der Ohrmuschel positioniert ist.

7. Verarbeitungseinrichtung (2, 3) gemäß Anspruch 1, wobei im Fall von kontinuierlich bzw. quasikontinuierlich veränderbaren Werten bez. Einstellungen die Verarbeitungseinrichtung (2, 3) zum kontinuierlichen bzw. quasikontinuierlichen Verändern der Werte bzw. Einstellungen ausgebildet ist, wobei der Grad der Veränderung mit der Weite der erfassten Bewegung skalieren.

8. Verarbeitungseinrichtung (2, 3) gemäß Anspruch 1, wobei im Fall von nur schrittweise oder nur sprunghaft veränderbaren Werten bzw. Einstellungen die Verarbeitungseinrichtung (2, 3) zum schrittweisen oder sprunghaften Verändern der Werte bzw. Einstellungen bei Eintreten eines Schwellwerts der erfassten Bewegung ausgebildet ist.

9. Verarbeitungseinrichtung (2, 3) nach Anspruch 1, die zum Verändern der Werten bzw. Einstellungen auch in dem Fall ausgebildet ist, dass ein Profil eine Mischung aus kontinuierlich bzw. quasikontinuierlich veränderbaren Werten bez. Einstellungen und schrittweise oder nur sprunghaft veränderbaren Werten bzw. Einstellungen aufweist.

10. Verarbeitungseinrichtung (2, 3) nach Anspruch 1, wobei im Fall, dass für einen Signalverarbeitungsparameter des ersten Profils kein korrespondierender Parameter des zweiten Profils oder umgekehrt vorliegt, die Verarbeitungseinrichtung (2, 3) dazu ausgebildet ist, den betreffenden Signalverarbeitungsparameter so lange unverändert zu belassen,

- bis ein vollständiger Wechsel von dem ersten Profil auf das zweite Profil eingetreten ist oder

- bis ein prozentueller Schwellwert, wie z.B. 25% 50% oder 75%, der maximalen Bewegung erfasst wurde oder

- bis die im Wesentlichen kontinuierlich veränderlichen Werte bzw. Einstellungen gemäß einem Schwellwert (z.B. 25% 50% oder 75%) verändert wurden.

11. Verarbeitungseinrichtung (2, 3) nach Anspruch 1, die dazu ausgebildet ist, die gemäß der erfassten Bewegung vorzunehmende Veränderung der Signalverarbeitungsparameter in Echtzeit in der Signalverarbeitungskette umsetzen.

12. Verarbeitungseinrichtung (2, 3) nach Anspruch 11, die dazu ausgebildet ist, das Verändern der Signalverarbeitungsparameter gemäß der erfassten Bewegung erst dann zu fixieren, wenn die Benutzerinteraktion endet.

13. Verarbeitungseinrichtung (2, 3) nach Anspruch 1, wobei die Verarbeitungseinrichtung (2, 3) dazu ausgebildet ist, bei einer vordefinierten Benutzerinteraktion oder einer als „Tippen und Halten" erfassten Benutzerinteraktion ein Home-Profil zu aktivieren, welches Signalverarbeitungsparameter für einen stabilen Hörmodus enthält.

14. System (1), bevorzugt ein Hörgeräte-System, besonders bevorzugt ein binaurales Hörgeräte-System, wobei das System (1) zwei Verarbeitungseinrichtung (2, 3) gemäß einem der Ansprüche 1 - 13 aufweist, wobei die erste Verarbeitungseinrichtung (2) für des linke Ohr und die zweite Verarbeitungseinrichtung (3) für das rechte Ohr einer Person bestimmt ist.

15. System nach Anspruch 14, wobei die beiden Verarbeitungseinrichtung (2, 3) zum funkbasierten Übertragen der Interaktionsdaten (ID) von der ersten Verarbeitungseinrichtung an die zweite Verarbeitungseinrichtung oder umgekehrt ausgebildet sind und jene die Interaktionsdaten (ID) von der anderen Verarbeitungseinrichtung empfangende Verarbeitungseinrichtung dazu ausgebildet ist, die empfangenen Interaktionsdaten (ID) analog zu der die Interaktionsdaten (ID) aussendenden Verarbeitungseinrichtung zu berücksichtigen.

Description:
Titel

Verarbeitungseinrichtung, insbesondere Kopfhörer oder Hörgerät, zum Verarbeiten von Mikrofonsignalen in einen Audiodatenstrom

Beschreibung

Technisches Feld

Die Erfindung betrifft Verarbeitungseinrichtung, insbesondere Kopfhörer oder Hörgerät zum Verarbeiten von Mikrofonsignalen in einen Audiodatenstrom.

Hintergrund

Die US 2009/0123013 Al offenbart als eine Verarbeitungseinrichtung ein Hörhilfegerät. Das Hörhilfegerät umfasst ein Gehäuse; mehrere innerhalb des Gehäuses angeordnete elektrische Komponenten; und ein Stellelement, das einen Einstellwert mindestens einer der elektrischen Komponenten modifiziert, wobei das Stellelement ein nicht mechanisches Stellelement ist. Das Einstellelement unterscheidet zwischen mehreren Bewegungsmustern eines erfassten Fingers oder eines Objekts und modifiziert jeweils zugeordnete Einstellwerte des Hörhilfegerätes.

Die Bedingung dieses Hörhilfegeräts ist denkbar kompliziert, weil sich der Benutzer für die jeweilige Einstellung des betreffenden Einstellwerts das zugehörige Bewegungsmuster merken muss. Letztendlich stellt das Hörhilfegerät auch nur ein sehr eingeschränktes Funktionsspektrum bereit, das mit Hilfe seinem leistungsschwachen Benutzerinterfaces tatsächlich steuerbar ist, nämlich ein Einschalten bzw. ein Ausschalten des Hörhilfegeräts und ein Erhöhen bzw. ein Reduzieren der Lautstärke des Hörhilfegeräts.

Die Erfindung hat sich daher die Aufgabe gestellt, eine Verarbeitungseinrichtung mit einem leistungsfähigeren Benutzerinterface bereitzustellen.

Zusammenfassung der Erfindung Diese Aufgabe wird durch eine Verarbeitungseinrichtung gemäß Anspruch 1 gelöst. Der Gegenstand der Erfindung ist daher eine Verarbeitungseinrichtung, insbesondere Kopfhörer oder Hörgerät, wobei die Verarbeitungseinrichtung eine Signalverarbeitungskette aufweist, die zur Verarbeitung von Mikrofonsignalen gemäß Werten bzw. Einstellungen von Signalverarbeitungsparametern eines Profils in einen Audiodatenstrom ausgebildet ist, wobei ein erstes Profil und ein zweites Profil vorgesehen sind, und wobei die Verarbeitungseinrichtung dazu ausgebildet ist, unter Berücksichtigung von Interaktionsdaten die Werte bzw. Einstellungen der Signalverarbeitungsparameter des ersten Profils hin zu jenen Werten bzw. Einstellungen der Signalverarbeitungsparameter des zweiten Profils zu verändern oder umgekehrt, wobei die Interaktionsdaten eine als Bewegung erfasste Benutzerinteraktion, wie beispielsweise ein "Wischen", "Tippen", "Halten" oder Kombination davon, insbesondere eine als „Halten und Wischen" bekannte Bewegung, repräsentieren.

Diese Aufgabe wird weiter durch ein System gemäß dem Anspruch 14 gelöst. Die Erfindung betrifft daher ein System, bevorzugt ein Hörgeräte- System, besonders bevorzugt ein binaurales Hörgeräte-System, wobei das System zwei erfindungsgemäße Verarbeitungseinrichtungen aufweist, wobei die erste Verarbeitungseinrichtung für des linke Ohr und die zweite Verarbeitungseinrichtung für das rechte Ohr einer Person bestimmt ist.

Mit den erfindungsgemäßen Maßnahmen geht der Vorteil einher, dass mit einer einzigen Bewegung in eine Vielzahl der Einstellungen der Signalverarbeitungsparameter der Signalverarbeitungskette gleichzeitig eingegriffen werden kann, und zwar ohne, dass der Benutzer die individuellen Einstellungen tatsächlich kennen muss, weil diese ja in dem jeweiligen Profil hinterlegt bzw. zusammengefasst sind. Es genügt also, dass der Benutzer der Verarbeitungseinrichtung sich der beiden Profile bewusst ist, die geradere zu Benutzung über das Benutzerinterface vorgesehen sind.

Die Verarbeitungseinrichtung weist somit ein innovatives Benutzerinterface, insbesondere für ein Hörgerät, auf.

Weitere, besonders vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen sowie der nachfolgenden Beschreibung. Betreffend die Herkunft der Interaktionsdaten kann vorgesehen sein, dass die Verarbeitungseinrichtung dazu ausgebildet ist, mittels einer Funkverbindung die Interaktionsdaten von einer externen Interaktionsquelle zu empfangen und zu nutzen.

Dieser Maßnahme ermöglicht es, dass auch mittels der externen Interaktionsquelle, wie z.B. einem Smartphone, einem Tabletcomputer oder auch einer cloudbasierten Softwarelösung, die Interaktionsdaten generierbar sind und mittels einer Funkverbindung an eine der Verarbeitungseinrichtungen oder an beide Verarbeitungseinrichtungen übermittelt werden, um sie dort für die weitere Verarbeitung zu nutzen.

Betreffend die Herkunft der Interaktionsdaten kann weiters vorgesehen sein, dass die Verarbeitungseinrichtung ein Eingabemodul mit einem flächenhaften Interaktionsbereich aufweist, wobei das Eingabemodul dazu ausgebildet ist, in dem Interaktionsbereich eine Bewegung, insbesondere eine Wischbewegung, als Benutzerinteraktion zu erfassen und die diese Benutzerinteraktion repräsentierenden Interaktionsdaten bereitzustellen.

Der flächenhafte Interaktionsbereich kann durch eine berührungssensitive Oberfläche gegeben sein.

Dies lässt auch einen Betrieb unabhängig von einer externen Interaktionsquelle zu.

Um den flächenhaften Interaktionsbereich optimal zu nützen, kann vorgesehen sein, dass die Verarbeitungseinrichtung dazu ausgebildet ist, in dem flächenhaften Interaktionsbereich zumindest zwei verschiedene Menübereiche zu definieren, wobei dem jeweiligen Menübereich eines der beiden Profile zugeordnet ist.

Das Eingabemodul kann eine Kamera aufweisen oder als Kamera ausgebildet sein. Ein solches Eingabemodul kann beispielsweise eine Hand- Geste als Benutzerinteraktion erfassen. Hierfür kann die Verarbeitungseinrichtung dazu ausgebildet sein, Gegenstände, also insbesondere die Hand bzw. deren Bewegung oder auch die Position oder Kombination der Fingerausrichtungen, in erfassten Bilddaten mittels Mustererkennung zu erkennen.

Es hat sich hierbei als vorteilhaft erwiesen, dass das Eingabemodul dazu ausgebildet ist, Benutzerinteraktionen innerhalb der Ohrmuschel zu erfassen oder vor der Ohrmuschel zu erfassen oder entlang des vorderen Rands der Ohrmuschel, insbesondere hin zum oberen Rand, zu erfassen.

Dies ermöglicht es dem Benutzer des Systems, mit möglichst natürlichen Bewegungen die Benutzerinteraktion auszulösen.

Als besonders vorteilhaft hat es sich jedoch erwiesen, wenn das Eingabemodul zumindest eine Touchbar aufweist oder als Touchbar realisiert ist.

Damit geht die Wirkung einher, dass im Unterschied zu Knöpfen, Schaltern oder Tastern bei einer Touchbar kein fix positionierter Aktuator bewegt werden muss. Vielmehr reicht bei der Touchbar eine einfache Berührung ihrer berührungssensitiven Oberfläche, weil die Touchbar zur kapazitiven Erfassung der Berührung ausgebildet ist.

Dies ermöglicht ein breites Spektrum an Benutzerinteraktionen auf kleinstem Raum wobei die Benutzerinteraktion von der interagierenden Person gefühlt bzw. gespürt wird, weil sie ja die Touchbar berühren muss. So können die Benutzerinteraktionen verschiedene Folgen von Tipp-Bewegungen und Wischbewegungen in verschiedene Richtungen an verschiedenen Stellen der Touchbar sein. Es wird also nur ein minimaler Platz benötigt, um dem Benutzer viele unterschiedliche Eingaben zu ermöglichen.

Innerhalb der berührungssensitiven Oberfläche können hierfür Berührungszonen auf der Touchbar hard- bzw. softwaregesteuert definiert werden bzw. auch während des Betriebs angepasst oder verändert werden, wodurch virtuelle, individuell definierbare Schaltflächen gebildet werden, die mit Funktionen der Verarbeitungseinrichtung belegt sind, z.B. Umschalten zwischen vordefinierten Profilen (zur Steuerung der Mikrofonsignalverarbeitung). Dies ermöglicht es, Profile gezielt und rasch anwählen zu können oder auch die Auswahl der Profile (für eine Signalverarbeitungskette zur Verarbeitung der Mikrofonsignale) situationsspezifisch automatisiert anzupassen.

Im Zusammenhang mit der Touchbar hat es ich als besonders vorteilhaft erwiesen, wenn die Verarbeitungseinrichtung derart konfiguriert ist, dass die Touchbar beim Tragen am Kopf am vorderen Rand der Ohrmuschel positioniert ist.

Mit dieser Maßnahme geht die Wirkung einher, dass eine unkomplizierte und intuitive Berührung von der Seite her möglich ist. Der Arm muss dabei weniger weit gehoben werden und die Finger der Hand müssen weniger stark gekrümmt werden, als dies der Fall wäre, wenn die äußere Ausprägung der Touchbar entlang der hinteren Ohrmuschel positioniert wäre und dort auch nur von hinten her berührt werden kann. Dies ist insbesondere für ältere Menschen wichtig, deren Bewegungsfähigkeit üblicherweise eingeschränkt ist.

Hinsichtlich der benutzerinteraktionsbedingten Veränderung der Werte und Einstellungen kann vorgesehen sein, dass im Fall von kontinuierlich bzw. quasikontinuierlich veränderbaren Werten bez. Einstellungen die Verarbeitungseinrichtung zum kontinuierlichen bzw. quasikontinuierlichen Verändern der Werte bzw. Einstellungen ausgebildet ist, wobei der Grad der Veränderung mit der Weite der erfassten Bewegung skaliert.

Hinsichtlich der benutzerinteraktionsbedingten Veränderung der Werte und Einstellungen kann weiters vorgesehen sein, dass im Fall von nur schrittweise oder nur sprunghaft veränderbaren Werten bzw. Einstellungen die Verarbeitungseinrichtung zum schrittweisen oder sprunghaften Verändern der Werte bzw. Einstellungen bei Eintreten eines Schwellwerts der erfassten Bewegung ausgebildet ist.

Hinsichtlich der benutzerinteraktionsbedingten Veränderung der Werte und Einstellungen kann weiters vorgesehen sein, dass die Verarbeitungseinrichtung zum Verändern der Werten bzw. Einstellungen auch in dem Fall ausgebildet ist, dass ein Profil eine Mischung aus kontinuierlich bzw. quasikontinuierlich veränderbaren Werten bez. Einstellungen und schrittweise oder nur sprunghaft veränderbaren Werten bzw. Einstellungen aufweist.

Bei der Verarbeitungseinrichtung wird bei einem Eintreten der erörterten Veränderung die Signalverarbeitung gemäß dem ersten Profil in eine Signalverarbeitung gemäß der nunmehr vorliegenden veränderten Werten bzw. Einstellungen übergeführt. Hierbei können die Werte und Einstellungen Zwischenzustände zwischen den durch die beiden Profile definierten Grenzen der Werte bzw. Einstellungen einnehmen. Nur wenn die erfasste Bewegung die gesamte zur Verfügung stehende Länge/Breite/Diagonale usw. des flächenhaften Interaktionsbereichs ausnützt oder zu einer vordefinierten Bewegungsweite bzw. -form korrespondiert, wird zu einhundert Prozent von dem ersten Profil auf das zweite Profil umgestellt. Andernfalls kommen die erwähnten Zwischenzustände zum Einsatz.

Hinsichtlich der benutzerinteraktionsbedingten Veränderung der Werte und Einstellungen kann weiters vorgesehen sein dass im Fall, wenn für einen Signalverarbeitungsparameter des ersten Profils kein korrespondierender Parameter des zweiten Profils oder umgekehrt vorliegt, die Verarbeitungseinrichtung dazu ausgebildet ist, den betreffenden Signalverarbeitungsparameter so lange unverändert zu belassen,

- bis ein vollständiger Wechsel von dem ersten Profil auf das zweite Profil eingetreten ist oder

- bis ein prozentueller Schwellwert, wie z.B. 25% 50% oder 75%, der maximalen Bewegung erfasst wurde oder

- bis die im Wesentlichen kontinuierlich veränderlichen Werte bzw. Einstellungen gemäß einem Schwellwert, wie z.B. 25% 50% oder 75%, verändert wurden.

Mit dieser Maßnahme kann vermieden werden, dass die betreffende Wirkung des nur im ersten Profil verfügbaren Parameters zu abrupt einsetzt. Analog kann auch mit einem Signalverarbeitungsparameter des zweiten Profils verfahren werden, zu dem es keinen korrespondierenden Parameter im ersten Profil gibt.

Als besonders vorteilhat hat es sich weiters herausgestellt, dass die Verarbeitungseinrichtung dazu ausgebildet ist, die gemäß der erfassten Bewegung vorzunehmende Veränderung der Signalverarbeitungsparameter in Echtzeit in der Signalverarbeitungskette umzusetzen.

Mit dieser Maßnahme geht die Wirkung einher, dass das Ergebnis dieser Veränderung der Signalverarbeitungsparameter unmittelbar wahrnehmbar ist.

Die Verarbeitungseinrichtung erlaubt also - wie eingangs bereits als erwähnt - eine „Halten und Wischen" Funktionalität, die im Fachjargon als „Wischbewegung" Funktionalität bezeichnet wird, was auf vorteilhafte Weise im Kontext des Systems dazu eingesetzt wird, um Profile miteinander zu mischen. Dabei berührt die Person zunächst eine der Profilzonen 53 - 55, belässt den Finger auf ihr und zieht den Finger dann in die benachbarte Profilzone, bevor der Finger von dem berührungssensitiven Element abgehoben wird. Dies wird softwaremäßig so interpretiert, dass die den beiden durch die Finger überstrichenen Profilzonen zugeordneten Profile zu mischen sind. Gemäß einer weiteren Variante sei erwähnt, dass es nicht zwingend notwendig sein muss, den Finger für eine gewisse Zeit irgendwo zu belassen, um die erwähnte Funktionalität auszulösen.

Es lässt sich der Grad des Mischens (oder in anderen Worten das Mischverhältnis) der beiden zu mischenden Profile durch die Weite der Wischbewegung (defacto zwischen 0 und 100%) einstellen.

Somit kann das Mischverhältnis von der Weite der Fingerbewegung gesteuert werden, also in Echtzeit dynamisch angepasst werden.

Mit Hilfe der „Wischbewegung" Funktionalität kann der Benutzer auch, solange sein Finger auf dem berührungssensitiven Element anliegt, dort jedoch bewegt wird, zwischen den beiden Profilen dynamisch hin und herwechseln bzw. den Mischgrad dynamisch verändern, um z.B. auszuloten, welches Mischverhältnis für ihn am besten passt oder um z.B. bewusst zwischen zwei Mischverhältnissen hin und her zu wechseln, um in kurzen Zeitabständen seine akustische Wahrnehmung gemäß dem ersten Profil oder dem zweiten Profil temporär zu optimieren. Erst wenn er den Finger von dem berührungssensitiven Element abhebt, ist das zu diesem Zeitpunkt eingestellte Mischverhältnis fixiert.

Es hat sich daher als vorteilhaft erwiesen, dass die Verarbeitungseinrichtung dazu ausgebildet ist, das Verändern der Signalverarbeitungsparameter gemäß der erfassten Bewegung erst dann zu fixieren, wenn die Benutzerinteraktion, wie beispielsweise ein "Wischen", "Tippen", "Halten" oder Kombination davon, insbesondere eine als „Halten und Wischen" bekannte Bewegung, was im Fachjargon auch als „Wischbewegung" bezeichnet wird, endet.

Gemäß einem weiteren Aspekt ist die Verarbeitungseinrichtung dazu ausgebildet, bei einer vordefinierten Benutzerinteraktion, wie etwa einer als besonders rasch ausgeführten Streichbewegung, die sich von jener unterscheidet, mit der die Profile gemischt werden, oder einer als ein „Tippen & Halten" erfassten Benutzerinteraktion, ein Home-Profil zu aktivieren.

Es kommt der Benutzer bzw. User, also die das System tragende Person, mit einer „swipe" Geste nach oben oder unten, also mit einer das berührungssensitive Element berührenden raschen Streichbewegung des Fingers über die beiden Zonen, stets wieder zurück in den ursprünglichen, stabilen Hörmodus (das „Home" Profil), egal, ob diese „swipe" Geste bei der ersten Verarbeitungseinrichtung oder der zweiten Verarbeitungseinrichtung ausgeführt wird.

Somit lässt sich auch ohne ein externes Gerät, wie z.B. ein Smartphone oder ein Tabletcomputer usw. eine komplexe Befehlskette einfach steuern, die in jedes Element der Signalverarbeitungskette eingreifen kann, soweit dies nötig ist.

Somit kann das ganze System auf berührbare Weise steuerbar gemacht werden. Wie erwähnt, ist die Touchbar frei belegbar und kann praktisch sämtliche System parameter, also die Einstellungen der Signalverarbeitungskette steuern. Damit kann der User in Echtzeit in seine Soundrealität eingreifen. Es lassen sich damit auch dynamische Profile generieren, wobei die auf die Touchbar gelegten Profile wie erörtert untereinander gemischt werden. Damit lassen sich z.B. komplexe DSP- Funktionen einfach steuern und der User hat das Gefühl, er interagiert mit dem Sound. Das bei bekannten Systemen oft als nachteilig wahrgenommene Gefühl des Users, er würde nur Programme mit einem Plastikknopf wechseln, wird somit völlig vermieden.

Mit Hilfe dieser Maßnahmen kann der Benutzer selbst im laufenden Betrieb tief in die Funktion der Signalverarbeitungskette eingreifen. Zudem kann damit ein Hörtest durchgeführt und ausgewertet werden und die Defizite eruiert werden, weil das Eingabemodul vielfältigste Interaktionen zulässt.

Das mit den beschriebenen technischen Maßnahmen ausgerüstete System kann auch ein Teilen eines aus den Mikrofonsignalen generierten Audiodatenstroms in Echtzeit mit einem anderen externen Gerät ermöglichen. Dies kann beispielsweise mit Hilfe einer Funkverbindung mit dem externen Gerät oder einer leitungsgebundenen Verbindung über den (magnetisch haltenden) Anschluss erfolgen. Diese Funktionalität erlaubt es einer anderen Person mit Hilfe des anderen Gerätes das zugrundeliegende Audio-Erlebnis der das System tragenden Person live mitzuerleben. Diese Funktionalität kann auch dazu eingesetzt werden, auf dem anderen Gerät in Echtzeit das Audioerlebnis, also den Audiodatenstrom, zu analysieren.

Das System, insbesondere die Verarbeitungseinrichtungen, können auch jeweils einen Datenspeicher aufweisen, mit dessen Hilfe die generierten Mikrofonsignale im Rohdatenformat oder auch vorverarbeitet kontinuierlich oder auch auf einen zeitlichen Bereich des Auftretens eines Audio-Ereignisses beschränkt gespeichert werden. Dazu korrespondierend werden auch die Einstellungen bzw. Parameter gespeichert, die bei der Signalverarbeitungskette zur Erstellung des Audiodatenstroms aus den Mikrofonsignalen eingesetzt wurden. Treten bei dem Benutzer des Systems nun Probleme in der Audiowahrnehmung auf, kann durch gezielte, systematische Anpassung bzw. Veränderung der Einstellungen bzw. Parameter ermittelt werden, mit welchen Werten für die Einstellung bzw. Parameter die Audiowahrnehmung bei dem Benutzer verbessert wird. Die gespeicherten Daten erlauben insbesondere ein inkrementelles und auf Wiederholung basierendes Anpassen der Einstellungen und Parameter, um für ein und dasselbe Audio-Erlebnis die passenden Parameter zu ermitteln. Dies ist insbesondere deshalb wichtig, weil die persönliche Audiowahrnehmung oft auf Subjektivität beruht, die es der Person erschwert, dies zum Beispiel einem Audiologen in einer objektiven Form mitzuteilen. Weiterhin können auch die zu dem jeweiligen Audio-Erlebnis korrespondierenden Audiodatenströme, die unter Anwendung verschiedenster Einstellungen und Parameter bzw. deren Veränderungen erstellt wurden, gespeichert werden. Dies erlaubt es dem Benutzer durch vergleichendes Anhören (also sequentielles Abspielen der Audiodatenströme) die für ihn passenden Einstellungen und Parameter einzugrenzen, was wiederum dem Audiologen oder einer softwarebasierten audiologischen Applikation die Möglichkeit gibt, das optimierte Set von Einstellungen bzw. Parametern zu finden.

Die beiden Verarbeitungseinrichtungen des Systems können unabhängig voneinander hinsichtlich der Nutzung der dort verfügbaren Profile oder des Mischverhältnisses der dortigen Profile eingestellt werden, was einen möglichst flexiblen und voneinander losgelösten Betrieb der beiden Verarbeitungseinrichtungen erlaubt. In dieser Konfiguration können bei einer Touchbar-Belegung von zwei Profilen pro Touchbar also - maximal vier Profile in Summe - zum Einsatz kommen, wobei pro Verarbeitungseinrichtung jeweils zwei Profile gemäß der vorliegenden Bewegung flüssig ineinander übergeführt werden können. Dieser Betriebsmodus wird als „unabhängiger Modus" bezeichnet, wobei jede der beiden Verarbeitungseinrichtung die Bewegung unabhängig von der anderen interpretiert und die bei ihr gemäß der erfassten Bewegung sich ergebenden Werte und Einstellungen der Signalverarbeitungsparameter zur Anwendung bringt.

Es hat sich jedoch als besonders vorteilhaft erwiesen, wenn die beiden Verarbeitungseinrichtung zum funkbasierten Übertragen der Interaktionsdaten von der ersten Verarbeitungseinrichtung an die zweite Verarbeitungseinrichtung oder umgekehrt ausgebildet sind und jene die Interaktionsdaten von der anderen Verarbeitungseinrichtung empfangende Verarbeitungseinrichtung dazu ausgebildet ist, die empfangenen Interaktionsdaten analog zu der die Interaktionsdaten aussendenden Verarbeitungseinrichtung zu berücksichtigen. Damit lässt sich ein hochsymmetrischer Betrieb der beiden Verarbeitungseinrichtungen etablieren, der nur durch eine einseitige Benutzerinteraktion an einer der beiden Verarbeitungseinrichtungen beeinflusst wird. In diesem Fall ist von einem „verlinkten Modus" die Rede. Dieser verlinkte Modus ist insbesondere dann von Interesse, wenn bei beiden Verarbeitungseinrichtungen die gleichen Profil-Paare zur Anwendung kommen und es für den Benutzer unbedeutend sein soll, an welcher Verarbeitungseinrichtung er die Touchbar benützt, um die Profile ineinander überzuführen.

Das System kann jedoch in einem asynchron verlinkten Modus so konfiguriert sein, dass eine Funkverbindung zwischen den Verarbeitungseinrichtungen zum Senden der eigenen Interaktionsdaten an die andere Verarbeitungseinrichtung und zum Empfange der Interaktionsdaten von der anderen Verarbeitungseinrichtung besteht. Synchron ausgeführte Gesten auf beiden Verarbeitungseinrichtungen (also zur linken und rechten Seite des Kopfes) können als eine Geste interpretiert werden und beide Verarbeitungseinrichtungen können aufgrund unterschiedlicher Eingaben auf beiden Seiten eine synchrone Ausführung durchführen. Es kann auch vorgesehen sein, dass einzelne Interaktionen auf beiden Seiten unterschiedliche Funktionen ausführen, die mit der anderen Verarbeitungseinrichtung synchronisiert werden können. Beispielsweise definiert ein Benutzer das Wischen nach oben als ein Erhöhen der Lautstärke auf der linken Seite, das Wischen nach oben auf der rechten Seite jedoch als Stummschalten der Tonausgabe. Wenn der Benutzer dann auf der rechten Seite nach oben wischt, werden beide Geräte stummgeschaltet, während durch Wischen auf der linken Seite nach oben die Lautstärke auf beiden Geräten erhöht wird.

Weiters kann ein asynchron unverlinkter Modus vorgesehen sein. Auch in diesem Modus besteht die zuvor beim asynchron verlinkten Modus erwähnte Funkverbindung zum Austauschen der jeweiligen Interaktionsdaten, damit jede Seite über die jeweiligen Benutzerinteraktion informiert ist. Diese Funkverbindung ist jedoch nicht zwingend nötig. Allerdings verhalten sich die Verarbeitungseinrichtungen in diesem Modus so, dass Änderungen nur auf jener Seite des Kopfes bzw. von der dort positionierten Verarbeitungseinrichtungen durchgeführt werden., wo die Benutzerinteraktion passiert bzw. stattfindet.

Hinsichtlich der Funk-Funktionalität sei erwähnt, dass bei den beiden Verarbeitungseinrichtungen gängige Funkmodule zur Funkkommunikation zur Anwendung kommen können. Hierbei kann es sich beispielsweise Near Field Communication, kurz NFC, ZigBee, Wi-Fi, handeln oder auch ein proprietäres Protokoll Anwendung finden. Die Funkmodule sind entsprechend der jeweiligen Funktechnologie ausgebildet, wobei ggf. eine spezielle Software (Treibersoftware), die das jeweilige Protokoll bereitstellt, zum Einsatz kommt.

Als besonders vorteilhaft hat es sich erwiesen, wenn es sich bei den Funkverbindungen um Bluetooth-Funkverbindungen handelt. Hierfür sind die Funkmodule als Bluetooth-Funkmodule ausgebildet.

Jede der Verarbeitungseinrichtungen weist zumindest zwei Mikrofone auf, mit der individuelle Mikrofonsignale bereitgestellt werden, die zwischen den beiden Verarbeitungseinrichtungen ausgetauscht werden.

Hinsichtlich der Verarbeitung der Mikrofonsignale sei erwähnt, dass zum Verarbeiten der Mikrofonsignale unterschiedliche grundsätzlich bekannte Verfahren oder Methoden bzw. Algorithmen Anwendung finden können. So können die Mikrofonsignale beispielsweise gemäß der „Dolby Atmos"- Technologie oder der Aureal 3-Dimensional-Technologie, kurz A3D- Technologie oder dem Auro-3D-Format weiterverarbeitet werden.

Als besonders vorteilhaft hat es sich erwiesen, dass jede der Verarbeitungseinrichtungen zum Verarbeiten der zwei Gruppen der Mikrofonsignale gemäß dem Ambisonics-Format ausgebildet ist.

Der große Vorteil ergibt sich insbesondere dadurch, dass dieses Format weit verbreitet ist und daher auch weitgehend Akzeptanz findet. Damit lässt es sich unkompliziert anwenden, weil bereits definierte Vorgehensweisen für die Signalverarbeitung vorhanden sind. Ambisonics ist also ein dem Fachmann grundsätzlich bekanntes voll-sphärisches Audioformat und kommt insbesondere im B-Format zur Anwendung.

Die Verwendung des Ambisonics-Formats erlaubt weiterhin eine einfache und bekannte Nutzung der erfassten Mikrofonsignale. So können diese beispielsweise aufgenommen und als Aufnahmedaten gespeichert werden. Im Weiteren können diese Aufnahmedaten systemintern oder durch andere Geräte weiterverarbeitet werden. So können die Aufnahmedaten zum Beispiel von sogenannten „(z.B. Video- und/oder Audio-)Content Creator" verwendet werden, um die aufgenommenen Aufnahmedaten in einer eigenen (proprietären) Verarbeitungsumgebung zu verwenden.

Vorteilhafterweise wird das Ambisonics-Format im Kontext der Erfindung in der weiteren systeminternen Verarbeitungskette verwendet, um den Einsatz von einem oder mehreren virtuellen Mikrofonen zu ermöglichen, sodass mit Hilfe des Systems rein softwarebasiert, also ohne weitere externe Hilfsmittel die Richtcharakteristik des jeweiligen virtuellen Mikrofons auf individuelle Schallquellen (z.B. Geräte, Fahrzeuge oder Personen) im Schallerfassungsbereich fokussierbar ist. Dies hat sich insbesondere bei dem Einsatz des Systems als binaurales Hörgeräte -System zur Unterstützung von hörbeeinträchtigten Personen als vorteilhaft erwiesen.

Bereits die oben erwähnte Basiskonfiguration bestehend aus den beiden Mikrofonen pro Verarbeitungseinrichtung bildet die Grundlage für eine Audiosignalverarbeitung gemäß dem grundsätzlich bekannten Ambisonics- Format in der ersten Ordnung. Gegebenenfalls ist eine Transformation der Mikrofonsignale von einem Koordinatensystem in ein anderes nötig, um die bevorzugte Anordnung und/oder Ausrichtung der Mikrofone für die Benutzung des Ambisonics-Formats konventionskonform zugänglich zu machen. Für den Fall, dass mehr Mikrofone als in der Basiskonfiguration vorhanden sind, ggf. auch entsprechende Orientierungen bzw. Richtcharakteristiken vorliegen, können auch höhere Ordnungen des Ambisonics-Formats verarbeitet werden. Es sei angemerkt, dass auch bei der Verwendung anderer Formate die Nutzung mehrerer Mikrofone eine Beschreibung einer höheren Ordnung der sphärischen Harmonik erlaubt. Die vollautomatische oder auf User-Interaktion basierende dreidimensionale Interpretation der Mikrofonsignale erlaubt es, eine bestimmte Schallquelle sowie die Richtung der Schallquelle bezogen auf die jeweilige Orientierung der Verarbeitungseinrichtung auszumachen. Die Geräusche dieser Schallquelle können nun für die Person je nach Vorgabe oder Eigenschaft der Geräusche verstärkt oder ausgeblendet werden.

Die Richtung der Schallquelle kann hierbei vollautomatisch mittels des (an sich im Kontext von Ambisonics bekannten) Vorgangs des „Beamforming" ermittelt werden. Unter dem Beamformig versteht man allgemein das Orientieren einer Richtcharakteristik (eines im Kontext von Ambisonics bekannten virtuellen Mikrophons), ggf. auch das Modellieren der Richtcharakteristik (dieses virtuellen Mikrofons).

Wird die Schallquelle oder das System durch den Raum bewegt, muss die Veränderung der Position der Schallquelle gegenüber dem System bzw. dessen Orientierung, die sich bei einem Hörgerät aus der Orientierung des Kopfes ergibt, berücksichtigt werden, um weiterhin auf die zuvor fokussierte Schallquelle fokussiert zu bleiben und deren Schall zu verstärken oder auszublenden. Auch für diesen - ggf. auch automatisierten - Vorgang kann das erwähnte „Beamforming" bei einem virtuellen Mikrofon eingesetzt werden. So kann das Schallfeld permanent abgetastet werden und die Position der „wandernden" Schallquelle verfolgt werden.

Abschließend sei noch allgemein erwähnt, dass die erörterten elektronischen Geräte (ESLs, Smartphone, Tablet-Computer, Video- Regalschiene, usw.) natürliche eine Elektronik aufweisen. Die Elektronik kann diskret oder durch integrierte Elektronik oder auch eine Kombination aus beiden aufgebaut sein. Auch können Microcomputer, Micro Controller, Application Specific Integrated Circuits (ASICs), ggf. in Kombination mit analogen oder digitalen elektronischen Peripheriebausteinen zum Einsatz kommen. Viele der erwähnten Funktionalitäten der Geräte werden - ggf. im Zusammenwirken mit Hardwarekomponenten - mit Hilfe einer Software realisiert, die auf einem Prozessor der Elektronik ausgeführt wird. Zur Funkkommunikation ausgebildete Geräte weisen üblicherweise als Bestandteil eines Transceiver-Moduls eine Antennenkonfiguration zum Senden und Empfangen von Funk-Signalen auf. Die elektronischen Geräte können zudem eine interne elektrische Leistungsversorgung aufweisen, die beispielsweise mit einer austauschbaren oder aufladbaren Batterie realisiert sein kann. Auch können die Geräte leitungsgebunden, entweder durch ein externes Netzteil oder auch mittel „Power over LAN" versorgt werden.

Diese und weitere Aspekte der Erfindung ergeben sich durch die nachfolgend erörterten Figuren.

Figurenkurzbeschreibung

Die Erfindung wird im Folgenden unter Hinweis auf die beigefügten Figuren anhand von Ausführungsbeispielen noch einmal näher erläutert, auf welche die Erfindung jedoch nicht beschränkt ist. Dabei sind in den verschiedenen Figuren gleiche Komponenten mit identischen Bezugszeichen versehen. Es zeigen auf schematische Weise:

Fig. 1 einen Kopf einer Person mit einem binauralen Hörgeräte-System mit je einer Verarbeitungseinrichtung an jedem Ohr des Kopfes;

Fig. 2 Richtungsangabe für das binaurale Hörgeräte-System in der horizontalen Ebene bezogen auf den Kopf;

Fig. 3 Richtcharakteristiken der in dem binauralen Hörgeräte-System zur Anwendung kommenden Mikrofone;

Fig. 4 ein Blockschaltbild eines binauralen Hörgeräte-Systems;

Fig. 5 eine in den Verarbeitungseinrichtungen eingesetzte Signalverarbeitungskette;

Fig. 6 strukturelle Details der Verarbeitungseinrichtungen in einer Explosionszeichnung;

Fig. 7 die Verarbeitungseinrichtung mit in ihrem Gehäuse aufgenommenen elektronischen Komponenten bzw. Baugruppen und zusätzliche an sie anschließbare Erweiterungsmodule;

Fig. 8 ein mit Hilfe zweiter Touchbars realisiertes dynamisches Interface der Verarbeitungseinrichtungen;

Fig. 9 eine typische Trageposition der Verarbeitungseinrichtung am rechten Ohr mit einer Benutzerinteraktion durch einen Finger an einem flächenhaften Interaktionsbereich der Verarbeitungseinrichtung;

Fig. 10 die Benutzerinteraktion in einer Zoom-Ansicht;

Fig. 11 den flächenhaften Interaktionsbereich mit seinen Endbereichen zugeordneten Profilen für die Steuerung der Signalverarbeitungskette; Fig. 12 eine Bewegung des Fingers entlang des flächenhaften Interaktionsbereiches und die damit einhegenden Veränderung der Werte und Einstellungen für die Signalverarbeitungskette;

Fig. 13 eine im Vergelich zu der Fig. 12 umgekehrte Bewegung und die damit einhergehende Veränderung der Werte bzw. Einstellungen für die Signalverarbeitungskette;

Fig. 14 beispielhaft eine interaktionsbedingte Veränderung der bei der Signalverarbeitungskette angewandten Werte und Einstelllungen;

Fig. 15 bis 20 ein Benutzerinterface einer Smartphone-Applikation zur Konfiguration verschiedenster Einstellungen der Verarbeitungsei nrichtung(en);

Fig. 21 eine weiter Ausbildungsform des flächenhaften Interaktionsbereich; Fig. 22 eine erste Zweifinger-Benutzerinteraktion und ihre Wirkung;

Fig. 23 eine zweite Zweifinger-Benutzerinteraktion und ihre Wirkung; Fig. 24 eine Visualisierung des Mischens von zwei Profilen für eine Audiosignalverarbeitung;

Fig. 25 ein Einfluss einer Fingerposition auf einem Touchbar auf die Profilmischung;

Fig. 26 eine Auswirkung der Mischung anhand von zwei Profilen mit jeweils drei Audio- Effekten;

Fig. 27 eine beispielhafte Parametersammlung eines Profils;

Fig. 28 eine Individualisierung eines Profils mit Hilfe eines Smartphones.

Beschreibung der Ausführungsbeispiele

Die Figur 1 zeigt einen Kopf 101 einer Person 100, die ein binaurales Hörgeräte-System 1, nachfolgend kurz System 1 genannt, trägt, das eine erste am linken Ohr 102 getragene Verarbeitungseinrichtung 2 und eine zweite am rechten Ohr 103 getragene Verarbeitungseinrichtung 3 aufweist, um der Person 100 ein verbessertes, insbesondere natürliches Hörerlebnis mit beiden Ohren 102, 103 zu ermöglichen. Die Bezeichnungen vorne V, hinten H, links L, und rechts R entsprechen hierbei der natürlichen Richtungsangabe in Bezug auf den Kopf 101 der (stehenden oder sitzenden) Person 100, sodass das Gesicht nach vorne V, das linke Ohr 102 nach links L und das rechte Ohr 103 nach rechts R ausgerichtet ist. Gleiches gilt für die üblichen Richtungsangaben oben O und unten U. Zwischen den Verarbeitungseinrichtungen 2 und 3 ist auch eine Funkverbindung angedeutet, worauf nachfolgend noch im Detail eingegangen ist.

Die Figur 2 zeigt die vier Richtungen V, H, R und L bezogen auf den Kopf 101 der Person 100, der von oben betrachtet wird, wobei das Gesicht der Person 100 nach vorne V blickt, was der Gradangabe 90° entspricht. Die Gradangabe ist in der horizontalen Ebene angegeben, die im Wesentlichen auf Höhe der Ohren 102, 103 positioniert ist. Der Kopf 101 ist hierbei umfangsseitig angedeutet und mit einem Kreuz 200 gekennzeichnet, wobei der längste Abschnitt des Kreuzes 201 vom Zentrum des Kopfes 101 zur Nase hin orientiert ist. Dies ist an dieser Stelle erwähnt, weil diese Art der Darstellung auch in den nachfolgenden Figuren zur Anwendung kommt.

Jede der in der Figur 1 dargestellten Verarbeitungseinrichtungen 2 und 3 weist jeweils zwei Mikrofone 10 und 11 bzw. 12 und 13 (nicht eingezeichnet, siehe jedoch z.B. Figur 3 und 4) auf, sodass eine Schallerfassung in alle vier Richtungen V, H, L und R möglich ist, wie dies in der Figur 2 gezeigt ist. Die in der Figur 2 ersichtlichen Haupterfassungsrichtungen der vier Mikrofone 10-13 sind hier durch die Richtungsangaben „links-vorne" LV, „rechts-vorne" RV, „links-hinten" LH und „rechts-hinten" RH angedeutet.

Die in der Figur 3 ersichtlichen Richtcharakteristiken LVC, LHC, RVC und RHC der Mikrofone 10-13 erstrecken sind (dreidimensional) nierenförmig im Wesentlichen symmetrisch um diese Haupterfassungsrichtungen LV, RV, LH, RH. Die Richtcharakteristiken LVC, LHC, RVC und RHC werden hierbei durch die Art des Mikrofons 10-13 sowie der Positionierung bzw. Orientierung des Mikrofons 10-13 definiert. Die Richtcharakteristiken LVC, LHC, RVC und RHC decken im Wesentlichen die gesamte Umgebung um den Kopf 101 der Person 100 ab und erlauben so eine rundum Erfassung des auf den Kopf 101 eintreffenden Schalls. Erwähnt sein an dieser Stelle lediglich, dass die Mikrofone 10 - 13 losgelöst vom Kopf 101 dargestellt sind, um sie überhaupt sichtbar zu machen. Tatsächlich sind sie in den Verarbeitungseinrichtungen 2 und 3 integriert, was den Figuren 4, 6, 7, 8 zu entnehmen ist.

In der Figur 4 sind die beiden Verarbeitungseinrichtungen 2 und 3 in weiterer Folge anhand von einem Blockschaltbild erörtert. Die beiden Verarbeitungseinrichtungen 2 und 3 sind batteriebetrieben und weisen daher jeweils eine wiederaufladbare Batterie 25 auf, die eine Versorgungsspannung VCC gegenüber einem Bezugspotential GND bereitstellt.

Die erste Verarbeitungseinrichtung 2 weist eine erste Verarbeitungsstufe 4 auf. Die Verarbeitungsstufe 4 ist mit einem ersten Bluetooth-Funkmodul 6, kurz erstes Funkmodul 6, und einem vierten Bluetooth-Funkmodul 9, kurz viertes Funkmodul 9, über jeweils eine UART- Verbindung 17 zur Einstellung bzw. Programmierung der Funkmodule 6 bzw. 9 und über jeweils eine I 2 S-Verbindung 18 zur separaten Übertragung von Audiodaten verbunden.

Unter der Abkürzung UART versteht der Fachmann einen „Universal Asynchronous Receiver Transmitter". Unter der Abkürzung I 2 S versteht der Fachmann eine serielle von Phillips entwickelte Schnittstelle für die Audio- Übertragung, die auch unter dem Begriff „Inter-IC Sound" bekannt ist.

Das erste Funkmodul 6 ist leitungsgebunden (in diesem Ausführungsbeispiel über seine Analog-Mikrofonsignal-Eingänge) mit einem ersten Mikrofon 10 und einem zweiten Mikrofon 11 verbunden. Mit dem ersten Mikrofon 10 und dem zweiten Mikrofon 11 wird jeweils ein individuelles Mikrofonsignal MSI bzw. MS2 generiert. Die beiden Mikrofonsignale MSI und MS2 bilden zusammen eine erste Gruppe Gl an Mikrofonsignalen. Die bei dem ersten Funkmodul 6 einlangenden Mikrofonsignale MSI und MS2 werden mit Hilfe des ersten Funkmoduls 6 für die weitere Verarbeitung digitalisiert.

Die zweite Verarbeitungseinrichtung 3 weist eine zweite Verarbeitungsstufe 5 auf. Die zweite Verarbeitungsstufe 5 ist mit einem dritten Bluetooth-Funkmodul 8, kurz drittes Funkmodul 8, und einem zweiten Bluetooth-Funkmodul 7, kurz zweites Funkmodul 7, über jeweils eine UART- Verbindung 17 zur Einstellung bzw. Programmierung der Funkmodule 6 bzw. 9 und über jeweils eine I 2 S-Verbindung 18 zur separaten Übertragung von Audiodaten verbunden.

Das dritte Funkmodul 8 ist leitungsgebunden (in diesem Ausführungsbeispiel über seine Analog-Mikrofonsignal-Eingänge) mit einem dritten Mikrofon 12 und einem vierten Mikrofon 13 verbunden. Mit dem dritten Mikrofon 12 und dem vierten Mikrofon 13 wird jeweils ein individuelles Mikrofonsignal MS3 bzw. MS4 generiert. Die beiden Mikrofonsignale MS3 und MS4 bilden zusammen eine zweite Gruppe G2 an Mikrofonsignalen. Die bei dem dritte Funkmodul 8 einlangenden Mikrofonsignale MS3 und MS4 werden mit Hilfe des dritten Funkmoduls 8 für die weitere Verarbeitung digitalisiert.

An dieser Stelle sei erwähnt, dass die jeweilige Gruppe Gl bzw. G2 der Mikrofonsignale auch bereits als digitalisierter Audio-Datenstrom den Funkmodulen 6 bzw. 7 zugeführt werden kann, wenn entsprechen ausgebildet Mikrofone zum Einsatz kommen, die eine solche Erstellung des Audi- Datenstroms unterstützen.

Jedes der Funkmodule 6 bis 9 weist eine Antennenkonfiguration 14 und die übliche Transceiver-Elektronik (nicht im Detail dargestellt) zur Bluetooth-Funkkommunikation auf.

Im Betrieb ist zwischen dem ersten Funkmodul 6 und dem zweiten Funkmodul 7 eine erste Funkverbindung 15 aufgebaut und es wird von dem ersten Funkmodul 6 die erste Gruppe Gl der Mikrofonsignale an das zweite Funkmodul 7 übermittelt. Für diese Funksignalübertragung ist das erste Funkmodul 6 ausschließlich als Sender und das zweite Funkmodul 7 ausschließlich als Empfänger in Verwendung.

Im Betrieb ist weiters zwischen dem dritten Funkmodul 8 und dem vierten Funkmodul 9 eine zweite Funkverbindung 16 aufgebaut und es wird von dem dritten Funkmodul 8 die zweite Gruppe G2 der Mikrofonsignale an das vierte Funkmodul 9 übermittelt. Für diese Funksignalübertragung ist das dritte Funkmodul 8 ausschließlich als Sender und das vierte Funkmodul 9 ausschließlich als Empfänger in Verwendung.

Weiters werden in dieser Betriebskonfiguration Audiodaten, welche die erste Gruppe Gl der Mikrofonsignale repräsentieren, von dem ersten Funkmodul 6 und Audiodaten, welche die zweite Gruppe G2 der Mikrofonsignale repräsentieren, von dem vierten Funkmodul 9 jeweils über die separaten I 2 S-Verbindungen 18 an die erste Verarbeitungsstufe 4 übertragen. Weiterhin werden in dieser Betriebskonfiguration Audiodaten, welche die erste Gruppe Gl der Mikrofonsignale repräsentieren, von dem zweiten Funkmodul 7 und Audiodaten, welche die zweite Gruppe G2 der Mikrofonsignale repräsentieren, von dem dritten Funkmodul 8 jeweils über die separaten I 2 S-Verbindungen 18 an die zweite Verarbeitungsstufe 5 übertragen. Somit stehen sowohl bei der ersten Verarbeitungseinrichtung 2 wie auch bei der zweiten Verarbeitungseinrichtung 3 beide Gruppen Gl und G2 der Mikrofonsignale, also alle Mikrofonsignale MSI bis MS4, für die weitere Signalverarbeitung zur Verfügung, wobei die individuelle, unidirektionale Übertragung über zwei separate Funkverbindungen 15 und 16 - sowie dies im allgemeinen Teil der Beschreibung erörtert ist - die Grundlage für die weitere phasensynchrone Signalverarbeitung aller Mikrofonsignale MSI bis MS4 in jeder der Verarbeitungseinrichtungen 2 und 3 in Echtzeit bildet.

In diesem Ausführungsbeispiel sind die vier Funkmodule 6 bis 9 jeweils durch einen Bauteil der Firma „MICROCHIP" mit der Bezeichnung „BM83 Bluetooth® Stereo Audio Modul" realisiert. Die beiden Verarbeitungsstufen 4 und 5 sind in diesem Ausführungsbeispiel durch einen Bauteil der Firma „NXP Semiconductors" mit der Bezeichnung „i.MX RT1160" realisiert. Auf eine Erörterung von gegebenenfalls weiteren (analogen) Bauteilen, die im Kontext der erwähnten digitalen Bauteile vorzusehen sind, ist aus Gründen der Übersichtlichkeit verzichtet. Der Fachmann kann dies den einschlägigen Datenblättern entnehmen.

Jede der Verarbeitungseinrichtungen 2 und 3 weist ein Gyroskop 21a bzw. 21b auf, mit dem Lagedaten LD generiert werden, welche die Lage bzw. die Veränderung der Lage der jeweiligen Verarbeitungseinrichtungen 2 bzw. 3 repräsentieren. Jede der Verarbeitungsstufen 4 und 5 ist mit dem jeweiligen Gyroskop 21a bzw. 21b verbunden und berücksichtigt die jeweiligen Lagedaten LD bei der weiteren Verarbeitung der beiden Gruppen Gl und G2 der Mikrofonsignale, sodass Lageänderungen in dieser weiteren Verarbeitung kompensiert werden können.

Jede der Verarbeitungseinrichtungen 2 und 3 weist weiterhin ein berührungssensitives Eingabemodul 20 auf, das sich einerseits in einen ersten Eingabemodul-Controller 19a (realisiert mit Hilfe eines Microcontrollers) und einen daran angeschlossenen ersten sogenannten „Touchstrip" 20a und andererseits in einen zweiten Eingabemodul-Controller 19b (ebenfalls realisiert mit Hilfe eines Microcontrollers) und einen daran angeschlossenen zweiten Touchstrip 20b gliedert. Die beiden Touchstrips 20a und 20b bilden äußere Ausprägungen zweier Touchbars, die jeweils eine berührungssensitive Oberfläche aufweisen. Das Eingabemodul 20 kann wahlfrei belegbare Zonen auf den Touchstrips 20a bzw. 20b definieren und so die dort zur Verfügung stehende Fläche in Menüpunkte gliedern, beispielsweise in eine obere und untere Hälfte, sodass mittels Finger-Berührung die den Menüpunkten zugeordneten Funktionen auslösbar sind. Die Zuordnung der Menüpunkte zu den Zonen kann vorgegeben sein, sich je nach Betriebszustand verändert werden bzw. angepasst werden oder über eine externe App konfiguriert werden. Die jeweilige Verarbeitungsstufe 4 und 5 ist mit dem jeweiligen Eingabemodul 20 verbunden. Das Eingabemodul 20 ist dazu ausgebildet auf kapazitive Weise die Position eines Fingers der Person 100 auf dem jeweiligen Touchstrip 20a bzw.20b zu erfasse und mittels des jeweiligen Berührungsmodul-Controllers 19a bzw. 19b zu interpretieren und Interaktionsdaten ID zu generieren und für die jeweilige Verarbeitungsstufe 4 bzw. 5 bereitzustellen, wo diese Interaktionsdaten ID gemäß der gerade gültigen Menübelegung des jeweiligen Touchstrips 20a und 20b verarbeitet werden. Mit Hilfe dieser Menübelegung lassen sich z.B. auf dem Touchstrip 20a und 20b Bereiche definieren, die zur direkten Aktivierung von Profilen dienen, oder auch Bereiche definieren, die zur Steuerung der Lautstärke dienen, oder Bereiche definieren, die zur Ausrichtung von einem virtuellen Mikrofon dienen, usw. Weiterhin sei an dieser Stelle erwähnt, dass auch mittels einer externen Interaktionsquelle, wie z.B. einem Smartphone, einem Tabletcomputer oder auch einer cloudbasierten Softwarelösung die Interaktionsdaten ID generierbar sind und mittels einer Funkverbindung an eine der Verarbeitungseinrichtungen 2 oder 3 oder an beide Verarbeitungseinrichtungen 2 und 3 übermittelt werden, um sie dort für die weitere Verarbeitung zu nutzen.

Die Interaktionsdaten ID sowie auch die Lagedaten LD können gemeinsam mit den Mikrofonsignalen MSI und MS2 bzw. MS3 und MS4 über die entsprechenden Funk-Verbindungen 15 und 16 an die jeweils andere Verarbeitungseinrichtung 2 bzw. 3 übermittelt werden, damit beide Verarbeitungseinrichtungen 2 und 3 synchron zueinander betrieben werden können oder einfach nur gegenseitig über die jeweilige Interaktion bzw. Lage informiert sind.

Die beiden Verarbeitungseinrichtungen 2 und 3 weisen jeweils eine Visuell-Signalisierungsstufe 26 auf, die im Wesentlichen durch jeweils eine LED gebildet ist, die von dem jeweiligen Funkmodul 6 bzw. 8, mit dem sie verbunden ist, angesteuert wird. Die Visuell-Signalisierungsstufe 26 dient z.B. der Anzeige einer Übertragungsaktivität oder auch der Anzeige eines Ladezustands der Batterie 25 der jeweiligen Verarbeitungseinrichtung 2 bzw. 3. Weiterhin weist jede der Verarbeitungseinrichtungen 2 und 3 ein Ausgabemodul 22 auf, das sich in einen Verstärker 22a bzw. 22b und einen damit gekoppelten Lautsprecher 23a bzw. 23b gliedert. Bei den Verstärkern 22a, 22b handelt es sich um eine I2C-Class-D-Amplifier, der über eine I 2 C- Verbdinung mit der jeweiligen Verarbeitungsstufe 4 bzw. 5 verbunden ist und dazu ausgebildet ist, von dort mit digitalen Audiodaten versorgt zu werden und draus ein entsprechend verstärktes Ausgabe-Audiosignal zu generieren, mit dem der Lautsprecher 22a bzw. 22b angesteuert wird.

Weiterhin weist jede der Verarbeitungseinrichtungen 2 und 3 eine Wechsel-Speichermedium-Lese/Schreib-Stufe 24 auf, mit deren Hilfe ein Wechselspeichermedium mit Daten beschreibbar ist oder Daten von dem Wechselspeichermedium auslesbar sind. Dabei kann es sich um Einstellungs- Daten, Benutzer-Daten, Audio-Daten oder auch Applikations-Daten usw. handeln, die dem System bzw. der jeweiligen Verarbeitungseinrichtung 2 oder 3 zugänglich gemacht werden oder von dort abgerufen werden. Auch kann damit eine Speichererweiterung für rechen- bzw. datenintensive Verarbeitungsaktivitäten bereitgestellt werden. Damit können auch ausführbare Applikationen auf physischem Weg, ggf. sogar verschlüsselt, in dem System 1 bereitgestellt werden.

Die Bezugszeichen 27 bis 29 sind nicht verwendet.

Nachfolgend ist mit Hilfe der Figur 5 auf die in jeder der Verarbeitungseinrichtungen 2 und 3 mit Hilfe der Verarbeitungsstufen 4 und 5 zur Anwendung kommende Signalverarbeitungskette 30 eingegangen.

In dieser Signalverarbeitungskette 30 werden eingangsseitig die zwei Gruppen Gl und G2 der Mikrofonsignale MSI - MS4 in eine ersten Signalverarbeitungsstufe 31 eingespeist. In der ersten Signalverarbeitungsstufe 31 sind alle Funktion zur ambisonics-bezogenen Signalverarbeitung unter Einbeziehung bzw. Berücksichtigung der Lagedaten LD und/oder der Interaktionsdaten ID, welche die ambisonics-bezogenen Signalverarbeitung betreffen, zusammengefasst. Hier wird z.B. ein gemäß dem Ambisonics-Format strukturierter Audiodatenstrom erzeugt, die Lagedaten LD des Gyroskops 21a bzw. 21b berücksichtigt, ein oder mehrere virtuelle Mikrofone definiert bzw. gesteuert, usw. Mit dieser Funktionalität generiert die erste Signalverarbeitungsstufe 31 aus den vier Mikrofonsignalen MS1-MS4 einen ersten Audiodatenstrom ADI, der in eine zweite Signalverarbeitungsstufe 32 eingespeist wird.

In der zweiten Signalverarbeitungsstufe 32 sind alle Funktionen zur hörkurvenanpassungs-bezogenen Signalverarbeitung unter Einbeziehung bzw. Berücksichtigung der Interaktionsdaten ID, welche die Hörkurvenanpassung betreffen, zusammengefasst. Eine Hörkurvenanpassung bewirkt, dass die Hörkurve eines beeinträchtigten Ohrs dahingehend korrigiert wird, dass sie an ein gesundes Ohr angenähert wird. Hierbei kommt im Wesentlichen ein statischer Equalizer zum Einsatz. Mit dieser Funktionalität generiert die zweite Signalverarbeitungsstufe 32 aus dem ersten Audiodatenstrom ADI einen zweiten Audiodatenstrom AD2, der in eine dritte Signalverarbeitungsstufe 33 eingespeist wird.

In der dritten Signalverarbeitungsstufe 32 sind alle Funktionen zur hörprofil-bezogenen Signalverarbeitung unter Einbeziehung bzw. Berücksichtigung der Interaktionsdaten ID, welche die Hörprofil-Einstellungen betreffen, zusammengefasst. Unter einem Hörprofil sind jene auf das betreffende Ohr bzw. die betreffende Person abgestimmten Audiosignal- Verarbeitungsparameter zusammengefasst, welche die Verständlichkeit von Sprache, die Teilnahme an einer Gruppendiskussion, das Anhören von Musik, usw. verbessern bzw. positiv beeinflussen. Wird das jeweilige Hörprofil aktiviert, also bei der Signalverarbeitungskette zum Einsatz gebracht, wird die Verständlichkeit von individueller Sprache verbessert, die Teilnahme an einer Gruppendiskussion erleichtert, die naturgetreue Wahrnehmbarkeit von Musik begünstigt usw. Mit dieser Funktionalität generiert die dritte Signalverarbeitungsstufe 32 aus dem zweiten Audiodatenstrom AD2 einen dritten Audiodatenstrom AD3, der in eine vierte Signalverarbeitungsstufe 34 eingespeist wird.

In der vierten Signalverarbeitungsstufe 34 sind alle Funktionen zur hörgerätefunktion-bezogenen Signalverarbeitung unter Einbeziehung bzw. Berücksichtigung der Interaktionsdaten ID, welche die Hörgerätefunktion- Einstellungen betreffen, zusammengefasst. Hierbei kann es sich beispielsweise um „Quality-Of-Life Improvements" z.B. zusätzliche Störlärmfilterung, Echo/Hallfilterung et cetera handeln. Hier können auch Plugins eingebunden werden, die selbst definiert/heruntergeladen werden können. Mit dieser Funktionalität generiert die vierte Signalverarbeitungsstufe 32 aus dem dritten Audiodatenstrom AD3 einen vierten Audiodatenstrom AD4, der mittels des zuvor erwähnten Ausgabemoduls 22 an das Ohr 102, 103 der das System 1 tragenden Person 35 abgegeben wird.

Abschließend ist aus Gründen der Klarheit noch erwähnt, dass die als strukturelle Blöcke dargestellten Signalverarbeitungsstufen 31 bis 34 im Wesentlichen auf Softwaremodulen basieren können, wobei natürlich auch eine auf die jeweilige Funktion optionierte Hardware, ggf. eine programmierbare in Kombination mit Software, zur Anwendung kommen kann.

Im Folgenden ist mit Hilfe der Figur 6 die Struktur des physischen Aufbaues der Verarbeitungseinrichtung 2 bzw. 3 erörtert. Die beiden Verarbeitungseinrichtungen 2 und 3 gliedern sich wie folgt.

Sie weisen eine Lautsprecherkapsel 36 auf, die für den Einsatz im äußeren Gehörgang ausgelegt ist und den Lautsprecher 23a bzw. 23b in einem Gehäuse aufnimmt.

Sie weisen weiters ein erstes flexibel verformbares Verbindungselement 37 auf, das im Wesentlichen aus einem Körper bestehend aus verformbarem Kunststoff, insbesondere aus Polyurethan- Kunststoff oder Silikon, gebildet ist.

Sie weisen weiters ein starres erstes Gehäuse 38 auf, das einen ersten berührungssensitiven Teil 39 des ersten Touchstrips 20a zeigt, sodass der berührungssensitive Teil 39 beim Tragen der Verarbeitungseinrichtung 2 bzw. 3 am Kopf seitlich oder nach vorne orientiert oder schräg nach vorne orientiert möglichst ungehindert durch die Ohrmuschel an dem ersten Gehäuseteil zugänglich bzw. berührbar ist.

Sie weisen weiters ein zweites flexibel verformbares Verbindungselement 40 auf, das im Wesentlichen aus einem Körper bestehend aus verformbarem Kunststoff, insbesondere aus Polyurethan- Kunststoff oder Silikon, gebildet ist.

Sie weisen weiters ein starres zweites Gehäuse 41 auf, das einerseits an die Form der äußeren Ohrmuschel von ihrem vorderen bis hin zu ihrem hinteren Bereich angepasst geformt ist, um zwischen der Ohrmuschel und der Schädeldecke aufgenommen zu werden, und das andererseits so groß ausgelegt ist, dass es abgesehen von dem Lautsprecher 23a bzw. 23b und dem ersten berührungssensitiven Teil 39 der Touchstrips 20a die verbleibenden elektronischen Komponenten der Verarbeitungseinrichtung 2 bzw. 3 aufnimmt. Diese elektronischen Komponenten sind kabelgebunden mit dem ersten berührungssensitiven Teil 39 der Touchstrips 20a und dem Lautsprecher 23a bzw. 23b verbunden, was aus Gründen der Übersichtlichkeit nicht dargestellt ist.

Das zweite Gehäuseteil 41 beinhaltet also jeweils ein Verarbeitungsmodul der entsprechenden Verarbeitungseinrichtung 2 bzw. 3. Das Verarbeitungsmodul weist in dieser Ausführung die jeweilige Verarbeitungsstufe 4 bzw. 5, jeweils die zwei Funkmodule 6 und 9 bzw. 8 und 7, jeweils zwei Mikrofone 10 und 11 bzw. 12 und 13, das jeweilige Gyroskop 21a bzw. 21b sowie die jeweilige Visuell-Signalisierungsstufe (hier nicht dargestellt) auf. Äußerlich sichtbar sind an dem zweiten Gehäuse 41 ein zweiter berührungssensitiven Teil 42 des zweiten Touchstrips 20b, wobei der zweite berührungssensitive Teil 42 vorwiegend zur Lautstärkeneinstellung eingesetzt wird, und ein magnetisch haltender Anschluss 43 bzw. dessen Kontaktfeld, das sechs Kontaktierungselemente zeigt.

Bei der ersten Verarbeitungseinrichtung 2 ist an dem zweiten Gehäuse 41 an seinem vorderen Ende das erste Mikrofon 10 bzw. dessen Schalleinlass-Öffnung(en) vorhanden, was jedoch in der gewählten Perspektive der Figur 6 nicht sichtbar ist. Weiters ist an dem zweiten Gehäuse 41 der ersten Verarbeitungseinrichtung 2 das zweite Mikrofon 11 bzw. dessen Schalleinlass-Öffnung(en) sichtbar.

Analog ist bei der zweiten Verarbeitungseinrichtung 3 an dem zweiten Gehäuse 41 an seinem vorderen Ende das dritte Mikrofon 12 bzw. dessen Schalleinlass-Öffnung(en) vorhanden, was jedoch in der gewählten Perspektive der Figur 6 nicht sichtbar ist. Weiters ist an dem zweiten Gehäuse 41 der ersten Verarbeitungseinrichtung 2 das vierte Mikrofon 13 bzw. dessen Schalleinlass-Öffnung(en) sichtbar.

In weiterer Folge ist auf die Figur 7 eingegangen, in der die Verarbeitungseinrichtung 2 bzw. 3 im Unterschied zur Figur 6 zusammengesetzt dargestellt ist. Die Bereiche des starren zweiten Gehäuseteils 41 sind hier bereichsweise transparent bzw. freigeschnitten dargestellt, um den Blick auf darin angeordnete Baugruppen bzw. elektronische Komponenten freizugeben. So sind in dieser Darstellung in einem oberen Bereich 44A die erwähnten integrierten Schaltkreise wie auch analoge Elektronikkomponenten für die Funkmodule 6 und 9 bzw. 8 und 7, für das Eingabemodul 20 und für die Verarbeitungsstufen 4 bzw. 5 angeordnet. In einem hinteren Bereich 44B ist eine elektrische Versorgung, die im vorliegenden Fall mit zwei wiederaufladbaren knopfzellenartigen Batterien 25 realisiert ist, und ein mit Hilfe der jeweiligen Verarbeitungsstufe 4 bzw. 5 ansteuerbare bisher noch nicht dargestelltes Haptik-Modul 45 angeordnet.

Weiters ist in der Figur 7 ein optionales an dem magnetisch haltenden Anschluss 43 angeschlossenes Erweiterungsmodule 51 dargestellt. In einer nicht abschließenden Aufzählung kann es sich hierbei um folgende Modularten handeln: ein Batterielademodul 46, einen Mikrofonwürfel (nicht dargestellt), einen Klinkenstecker-Adapter 47, einen USB-Adapter 48, ein mit dem System 1 logisch verknüpfbares Funkgerät 49, mit dessen Hilfe Audiooder Einstellungsdaten von einem anderen Gerät, mit dem das Funkgerät 49 dann z.B. per USB-Anschluss verbunden ist, per Funk an das System 1 übertragbar sind oder umgekehrt, eine Mikrofonerweiterung 50, usw.

Die wiederaufladbaren Batterien 25 können somit mittels des Batterielademoduls aufgeladen werden. Auch kann eine Dockingstation vorgesehen sein, in die die beiden Verarbeitungseinrichtungen 2 und 3 mit Hilfe des Anschlusses 43 koppelbar sind, sodass das Laden der Batterien 25 in der Dockingstation passieren kann.

Grundsätzlich kann das System 1 zur Verarbeitung von Ambisonics gemäß einer höheren Ordnung als dies durch die im System 1 fest installieren Mikrofone 1 bis 13 angedacht ist (im vorliegenden Fall ist dies die erste Ordnung) ausgelegt sein. Dieser Umstand erlaubt es, an den Anschluss 43 weitere Mikrofone anzuschließen und somit die höhere Ordnung zu verwenden, und zwar ohne, dass eine Änderung des Grunddesigns des Systems 1 nötig wäre.

Nachfolgend ist unter Bezugnahme auf die Figur 8 das im System 1 integrierte Userinterface mit einer beispielhaften Menübelegung des ersten berührungssensitiven Teils 39 der Touchbar 20 für beide der Verarbeitungseinrichtungen 2 und 3 und die damit steuerbaren Funktionen des Systems 1 erörtert. Im vorliegenden Fall ist die Menübelegung derart definiert, dass bei der zweiten Verarbeitungseinrichtung 3 die obere Hälfte des ersten berührungssensitiven Teils 39 eine erste Profilzone 53 zur Auswahl eines ersten Profils für die Signalverarbeitungskette 30 definiert und die untere Hälfte des ersten berührungssensitiven Teils 39 eine dritte Profilzone 55 zur Auswahl eines dritten Profils für die Signalverarbeitungskette 30 definiert. Weiterhin ist die Menübelegung derart definiert, dass bei der ersten Verarbeitungseinrichtung 2 die obere Hälfte des ersten berührungssensitiven Teils 39 eine zweite Profilzone 54 zur Auswahl eines zweiten Profils für die Signalverarbeitungskette 30 definiert und die untere Hälfte des ersten berührungssensitiven Teils 39 ebenfalls die dritte Profilzone 55 zur Auswahl des dritten Profils für die Signalverarbeitungskette 30 definiert.

Die drei Profile für die Signalverarbeitungskette 30 fassen die jeweiligen Signalverarbeitungseinstellungen bzw. Signalverarbeitungsparameter zusammen, die je nach aktiviertem Menü bei der Signalverarbeitungskette 30 zum Einsatz kommen sollen.

Eine Berührung einer der Profilzone 53 - 55 (obere oder untere Hälfte) des betreffenden berührungssensitiven Teils 39 wählt das jeweilige zugehörige Profil aus, um es bei der Signalverarbeitung der Mikrofonsignale MSI - MS4 zur Anwendung zu bringen. Dies geschieht in Echtzeit, während die Person 100 das System 1 trägt und die Signalverarbeitungskette 30 durchlaufen wird. Der Profil Übergang zwischen dem gerade aktiven Profil und dem durch die Berührung der jeweiligen Zone ausgewählten Profils erfolgt dabei bevorzugt fließend, was auch als „faden" bezeichnet wird und geplant eine gewisse Zeit in Anspruch nimmt, wie beispielhaft ein bis drei Sekunden, bevorzugt ca. 2 Sekunden, sodass ein flüssiger Übergang in das ausgewählte und daher zum Einsatz zu bringende Profil geschaffen wird. Abrupte Signalverarbeitungswechsel, die mitunter als störend oder Fehlfunktion interpretiert werden könnten, werden damit zuverlässig vermieden.

Die Software des Systems 1, also jeder Verarbeitungseinrichtung 2 bzw. 3, erlaubt jedoch auch eine „Halten und Wischen" Funktionalität, die im Fachjargon als „Wischbewegung" Funktionalität bezeichnet wird, was auf vorteilhafte Weise im Kontext des Systems 1 dazu eingesetzt wird, um Profile miteinander zu mischen. Dabei berührt die Person zunächst eine der Profilzonen 53 - 55, belässt den Finger auf ihr und zieht den Finger dann in die benachbarte Profilzone, bevor der Finger von dem berührungssensitiven Element abgehoben wird. Dies wird softwaremäßig so interpretiert, dass die den beiden durch die Finger überstrichenen Profilzonen zugeordneten Profile zu mischen sind. Wenn beispielsweise bei der rechten, zweiten Verarbeitungseinrichtung 3 mit dem Finger bei dem ersten Profil begonnen wird und nach unten hin zu dem dritten Profil gewischt bzw. gestrichen wird, dann werden die für die Signalverarbeitungskette 30 gemäß dem ersten Profil zutreffenden Signalverarbeitungseinstellungen mit jenen des dritten Profils gemischt. Macht man dasselbe bei der linken, ersten Verarbeitungseinrichtung 2, so mischen sich die Signalverarbeitungseinstellungen des zweiten Profils mit jenen des dritten Profils. Zudem lässt sich der Grad des Mischens (oder in anderen Worten das Mischverhältnis) der beiden zu mischenden Profile durch die Weite der Wischbewegung (defacto zwischen 0 und 100%) einstellen. Beispielhaft sei in diesem Zusammenhang angenommen, dass das erste Profil der Signalverarbeitungskette 30 auf natürliches Gehör (Home-Einstellung) ausgelegt wurde und das dritte Profil der Signalverarbeitungskette 30 als ein Autofokus auf Sprachsignale programmiert wurde, sodass der Beamformer in der ersten Signalverarbeitungsstufe 31 immer einen Sprachvektor wählt und der DSP (DSP steht hier für den englischen Begriff „Digtal Signal Prozessor") der dritten Signalverarbeitungsstufe 33 auf Sprache eingestellt ist. Wenn man nun die erste Profilzone 53 berührt, hält und dann nach unten wischt, so nähert sich das stabile „Home" Profil dem kompromisslosen Sprach-Autofokus an. Vorteilhaft kann jedoch das Mischverhältnis von der Weite der Fingerbewegung gesteuert werden, also in Echtzeit dynamisch angepasst werden. Im Ergebnis wird also ein auf normales Hören optimiertes Audiosignal mit einem auf Sprache optionierten Audiosignal gemäß dem gewählten Mischverhältnis gemischt.

Mit Hilfe der „Wischbewegung" Funktionalität kann der Benutzer auch, solange sein Finger auf dem berührungssensitiven Element anliegt, dort jedoch bewegt wird, zwischen den beiden Profilen dynamisch hin und herwechseln bzw. den Mischgrad dynamisch verändern, um z.B. auszuloten, welches Mischverhältnis für ihn am besten passt oder um z.B. bewusst zwischen zwei Mischverhältnissen hin und her zu wechseln, um in kurzen Zeitabständen seine akustische Wahrnehmung gemäß dem ersten Profil oder dem zweiten Profil temporär zu optimieren. Erst wenn er den Finger von dem berührungssensitiven Element abhebt, ist das zu diesem Zeitpunkt eingestellte Mischverhältnis fixiert. Weiters kommt der Benutzer bzw. User, also die das System 1 tragende Person 100, mit einer „swipe" Geste nach oben oder unten, also mit einer das berührungssensitive Element berührenden raschen Streichbewegung des Fingers über die beiden Zonen, stets wieder zurück in den ursprünglichen, stabilen Hörmodus (das „Home" Profil), egal, ob diese „swipe" Geste bei der ersten Verarbeitungseinrichtung 2 oder der zweiten Verarbeitungseinrichtung 3 ausgeführt wird.

Somit lässt sich auch ohne ein externes Gerät, wie z.B. ein Smartphone oder ein Tabletcomputer usw. eine komplexe Befehlskette einfach steuern, die in jedes Element der Signalverarbeitungskette 30 eingreifen kann, soweit dies nötig ist.

Somit kann das ganze System 1 auf berührbare Weise steuerbar gemacht werden. Wie erwähnt, ist die Touchbar 20 frei belegbar und kann praktisch sämtliche System parameter, also die Einstellungen der Signalverarbeitungskette 30 steuern. Damit kann der User in Echtzeit in seine Soundrealität eingreifen. Wie erwähnt lassen sich damit auch dynamische Profile generiert werden, wobei die auf die Touchbar 20 gelegten Profile wie erörtert untereinander gemischt werden. Damit lassen sich z.B. komplexe DSP-Funktionen einfach steuern und der User hat das Gefühl, er interagiert mit dem Sound. Das bei bekannten Systemen oft als nachteilig wahrgenommene Gefühl des Users, er würde nur Programme mit einem Plastikknopf wechseln, wird somit völlig vermieden.

Zudem kann sich das Benutzer-Interface, z.B. auch als Folge einer gerade durchgeführten Interaktion oder auf Grund externer Umstände, die z.B. über die Auswertung des eintreffenden Schalls ermittelt wurden, dynamisch an den User anpassen.

Das Benutzer-Interface kann auch kurzzeitig seinen Zustand ändern und dabei z.B. bei einem über ein Smartphone eingehenden Anruf, was dem System 1 über z.B. eine Bluetooth-Verbindung mit dem Smarthone mitgeteilt wird, währen des Klingelns die Funktion eines Anruf-Annahmeknopfs bereitstellen. Die kurzzeitige Änderung kann jedoch auch durch die Auswertung des eintreffenden Schalls bedingt sein, wenn dies auf Grundlage der Auswertung als nötig erscheint.

Ebenso kann eine Zone (z.B. die obere Hälfte) des Touchstrips 20a bzw. 20b z.B. der Funktion „Speech Autofocus" zugeordnet sein. Durch ein Tippen im oberen Bereich des mit diesem Menüpunkt belegten Touchstrips 20a bzw. 20b wird dann ein spezielles Plugin (also eine Softwarekomponente) in den Verarbeitungsstufen 4 und 5 ausgeführt, mit deren Hilfe das Schallfeld auf Sprecher durchsucht wird und eine oder mehrere virtuelle Mikrofone auf diese Schallquellen bzw. Raumbereiche oder Richtungsbereiche, in denen die Schallquellen identifiziert wurden, ausgerichtet werden.

Analog dazu lässt sich über die Touchbar 20 eine Funktion „einfach- nur-hören" aktivieren. Dies kann ein völlig stabiles Hörprogramm sein, das jedoch an die Hörkurve des Benutzers des Systems 1 angepasst ist und sich daher für ein natürliches Hörempfinden eignet bzw. dazu führt. Bei dieser Funktion würde ein Mix aus omnidirektional und/oder z.B. nierenförmig direktional erfassten Audiosignalen bestehen (Vektor nach vorne, Front of User). Der Mix der individuellen Mikrofonsignal MSI - MS4 wird festgelegt, was durch binaurale (Lokalisations-)Hörtests ermittelt wird. Der Frequenzgang (inkl. Kompressorwerte) ergibt sich aus einem binauralen (Frequenz-)Hörtest. Das Pol ar- Pattern, also die zur Anwendung kommende Richtcharakteristik, wird durch den Mix mehrerer virtueller Mikrofone erzeugt. Dies gilt im Übrigen für alle Programme dieses Systems 1. Der Unterschied hier ist lediglich der, dass der Mix absolut statisch ist. Dass der Mix stabil ist bedeutet, dass im laufenden Betrieb keinerlei Automatismen eingreifen. Die Lokalisierungsfähigkeit wird durch binauralen Mixdown, was im Kontext von Ambisonics bekannt ist, wieder hergestellt.

Dieses „einfach-nur-hören" Profil bildet auch die Grundlage aller anderen Profile, mit dem Unterschied, dass andere Profile frei definierbare virtuelle Mikrofone beliebiger Art und Anzahl (limitiert auf Ordnung des Mikrofonarrays 10 - 13; bei dem vorliegenden Ausführungsbeispiel ist es First Order Ambisonics) erstellen können und frei mischen können. Ein Beispiel dafür ist eine auf dem Touchstrip 20a bzw. 20b abrufbare Funktion „Noise- Cancelling" (= Geräuschunterdrückung), welche über ein dynamisches Verhalten verfügt. Bei aktivem „Noise-Cancellation" Profil wird laufend die Umgebung analysiert und Störschall im Schallfeld wird vollautomatisch selektiv entfernt. Diese Funktion sucht und unterdrückt permanente (Störgeräusche, wobei gleichzeitig Musik, zu beachtende Umgebungsgeräusche und Sprache für den User durchgängig wahrnehmbar bleibt. Die Signalverarbeitungskette 30 passt sich also dynamisch an die örtliche und zeitliche Dynamik des Störschalls an.

Ganz allgemein ist festzuhalten, dass mit einer steigenden Anzahl von Mikrofonen (und damit Achsen) die Komplexität/Tiefe der Schallfeldabtastung gesteigert werden kann. Damit kann man dann natürlich genauere Berechnungen anstellen (engere Trichter des virtuellen Mikrofones, akkuratere 3D-Felddarstellung im Mixdown, akkuratere Energieverteilungsinformationen / Schalldruckvektoren etc.). Je höher die Ambisonics-Ordnung ist, desto feiner wird die inhaltliche wie auch örtliche Auflösung des Systems 1. Diese Ordnung steigt mit der Anzahl der Mikrofone. Ab einer Anzahl von 4 Mikrofonen pro Gerät, also pro Verarbeitungseinrichtung 2 bzw. 3 (2x4 / 1x8 Matrix) würde jede einzelne Verarbeitungseinrichtung 2 bzw. 3 (also beide Hearables) in die erste Ordnung der sphärischen Harmonik einsteigen.

Das Haptik-Modul 45, das auch als ein Feedbackmodul bezeichnet werden kann, gibt dem Benutzer, also der Person, die das System 1 trägt bzw. benutzt, unter den verschiedensten Betriebsbedingungen Feedback, etwa wenn die Touchbar 20 bzw. die jeweiligen Touchstrips 20a bzw. 20b berührt wurden oder das System 1 im laufenden Normalbetrieb etwas mitteilen möchte. Dieses Feedbackmodul dient dazu, unterbrechungsfreie „Notifications", also Mitteilungen, an den Benutzer zu ermöglichen. Das Soundbild, welches durch das System 1 für den Benutzer generiert wird, wird damit etwa bei Lautstärke- oder Programmwechsel usw. nie durch das haptisch wahrnehmbare Feedback gestört, weil somit ein Feedback ohne akustische Unterbrechung oder akustische Überlagerung gegeben ist.

Nachfolgend wird mit Hilfe der weiteren Figuren auf die Bedienung der Vorrichtung 2 bzw. 3 mit Hilfe der durch die Person 100 ausgeführten Bewegungen eingegangen. Ganz allgemein sei nochmals auf den Benutzungskomfort hingewiesen, der sich durch die besondere Position des Touchstrip 20a bzw. 20b entlang der vorderen Begrenzung des Ohrs und seine geradlinige Ausbildung, die sich bei gerader und nach vorne schauender Orientierung des Kopfes 101 in etwa von oben nach unten erstreckt. Dies ist in der Figur 9 mit Hilfe der von schräg rechts hinten dargestellten Person 100 visualisiert, die an ihrem rechten Ohr die zweite Verarbeitungseinrichtung 3 trägt und mit ihrem rechten Zeigefinger 104 den zweiten Touchstripe 20b berührt, um die Signalverarbeitungskette 30 zu beeinflussen. Die Figur 10 zeigt das Detail der Berührung des zweiten Touchstrip 20b mit dem ersten Glied des rechten Zeigefingers 104, um die Größenverhältnisse zu visualisieren. Die nachfolgenden Ausführungen gelten sinngemäß auch für die Bedienung des ersten Touchbars 20a für die am linken Ohr getragene erste Verarbeitungseinrichtung 2, die analog mit dem linken Zeigefinger der linken Hand zu bedienen ist.

Mit Verweis auf die Figur 11 sei nun angenommen, dass einem ersten Bereich, wie z.B. einem Kopf-Bereich 90, des zweiten Touchbars 20b ein erstes Profil PI und einem zweiten Bereich, wie z.B. einem Fuß-Bereich 91, des ersten Touchbars 20a ein zweites Profil P2 zugeordnet ist. Die Datenstruktur DS der Profile PI und P2 ist identisch aufgebaut, um die in Folge der Benutzerinteraktion zu erfolgende „Mischung" der Werte bzw. Einstellungen der beiden Profile problemlos zu ermöglichen.

Visualisiert wird diese Datenstruktur DS durch eine erste Matrix Ml und eine zweite Matrix M2 mit „Kästchen", die Datenelemente repräsentieren, wobei hier jedem Kästchen des ersten Profils PI genau ein Kästchen des zweiten Profil P2 zugeordnet ist. Die Spalten fassen hier die für die jeweilige Signalverarbeitungsstufe 31 bis 34 zur Anwendung kommenden Signalverarbeitungsparameter zusammen, wobei für jeden Signalverarbeitungsparameter ein Zeileneintrag zur Speicherung des betreffenden Werts bzw. der betreffenden Einstellung eines Signalverarbeitungsparameters vorgesehen ist. Jene Kästchen, die mit der Zahl „1" gefüllt sind, zeigen an, dass es sich um die Werte bzw. Einstellungen für die jeweiligen Signalverarbeitungsparameter gemäß dem ersten Profil PI handelt. Jene Kästchen, die mit der Zahl „3" gefüllt sind, zeigt an, dass es sich um die Werte bzw. Einstellungen für die Signalverarbeitungsparameter gemäß dem zweiten Profil P2 handelt.

Die Bedienung des Benutzerinterfaces und die damit einhergehende Veränderung der Werte bzw. Einstellungen der Signalverarbeitungsparameter ist in weitere Folge mit Hilfe der Figuren 12 bis 13 visualisiert.

Die Figur 12 zeigt mit drei Abbildungen entlang der Zeitachse t einen zeitlichen Bewegungsablauf während der Bedingung des Benutzerinterfaces, wobei der Finger 104 zunächst in dem Kopf-Bereich 90 aufgesetzt wird und in weitere Folge bis zu dem Fuß-Bereich 91 bewegt wird, währen der Finger mit dem Touchstrip 20b in Kontakt bleibt. Zwischen dem Kopf-Bereich 90 und dem Fuß-Bereich 91 befindet sich der Finger 104 in einer Zwischenposition, so wie dies in der mittleren Abbildung dargestellt ist. Erst bei Erreichen des Fuß-Bereichs 91 wird der Finger 104 von dem Touchstrip 20b abgehoben. Diese Sequenz der Fingerbewegung - also das initiale Aufsetzen des Fingers auf den Touchstrip 20b im Kopf-Bereich 90 und die Bewegung entlang des Touchstrips 20b und das finale Abheben des Fingers von dem Touchstrip 20b im Fuß-Bereich 91 - wird von dem Eingabemodul- Controller 19a fortwährend digital erfasst und mit Hilfe der Interaktionsdaten ID repräsentiert, die von der zweiten Verarbeitungsstufe 5 verarbeitet werden. Die Interaktionsdaten ID beschreiben die erfasste Bewegung als Fingers 104 als eine „Halten und Wischen" Bewegung und liefern auch die jeweilige Position des Fingers 104 entlang des Touchstrips 20b in Echtzeit, solange der Finger auf dem Touchstripe 20b gehalten wird. Mit diesen Informationen versorgt verändert die zweite Verarbeitungsstufe 5 in Echtzeit die Werte bzw. Einstellungen der Signalverarbeitungsparameter des ersten Profils 1 - skaliert gemäß der jeweiligen Position des Fingers 104 zwischen den beiden äußersten Enden des ersten Touchstripes 20a - hin zu den Werten bzw. Einstellungen der Signalverarbeitungsparameter des zweiten Profils P2. Dieser grundsätzlich dynamische Vorgang ist in einer Momentaufnahme für die Zwischenposition durch eine dritte Matrix M3 visualisiert, deren Kästchen die Zahl „2" enthalten, was anzeigt, dass es sich um eine dynamisch in Echtzeit generiertes Zwischen-Profil P3 handelt, das in Echtzeit bei der Signalverarbeitungskette 30 zur Anwendung gebracht wird. Die Werte und Einstellungen des jeweiligen Signalverarbeitungsparameters des Zwischen- Profils P3 ergeben sich durch eine von der Position des Fingers 104 abhängige (z.B. lineare) Interpolation zwischen dem Wert bzw. der Einstellung des Signalverarbeitungsparameters des ersten Profils PI und dem Wert bzw. der Einstellung des dazu korrespondierenden Signalverarbeitungsparameters des zweiten Profils P2. Diese Interpolation wird für jeden Signalverarbeitungsparameter durchgeführt. Das Hörerlebnis, das durch das Zwischen-Profil P3 vermittelt wird, stellt also eine Mischung des jeweiligen durch das erste Profil 1 und das zweite Profil P2 vermittelten Hörerlebnisses dar, wobei das Mischverhältnis durch die Fingerposition gegeben ist. Die Position des Fingers 104 beeinflusst also im Wesentlichen alle Signalverarbeitungsparameter, soweit sie nicht als konstant vorgesehen sind oder in den beiden Profilen PI und PI nicht als identisch angeführt sind.

Im Vergleich zu der Figur 12 zeigt die Figur 13 den umgekehrten Vorgang, also dass als Ausgangspunkt der „Halten und Wischen" Bewegung von dem Fuß-Bereich 91 ausgegangen wird, dem das zweite Profil P2 zugeordnet ist, und dass die Bewegung über eine Zwischenposition, wo ein dynamisch generiertes Zwischen-Profil P3 erstellt wird und zur Anwendung gebracht wird, hin zum Kopf-Bereich 90 verläuft, dem das erste Profil PI zugeordnet ist.

Der Finger 104 kann auch für längere Zeit auf dem Touchstrip 20b verweilen, während er auf und ab bewegt wird, also eine Hin- und Her- „Wischbewegung" ausgeführt wird, um fortwährend ein der jeweiligen Fingerposition entsprechendes Zwischen-Profil P3 zu generieren. Die Person 100 kann diesen Vorgang als eine Art der Feineinstellung des Zwischen-Profils P3 nützen, um die für das Hörerlebnis ideale Einstellung der Signalverarbeitungsparameter des Zwischen-Profils P3 zu finden. Sobald die Interaktion beendet wird, also der Finger von dem Touchstrip 20b an einer beliebigen Zwischenposition abgehoben wird, beendet die Verarbeitungsstufe 3 die Interpolation der Werte bzw. Einstellungen der Signalverarbeitungsparameter zwischen dem ersten Profil PI und dem zweiten Profil P2 für das Zwischen-Profil P3 und das zu diesem Zeitpunkt vorliegende Zwischen-Profil P3 wird von da an für die Signalverarbeitungskette beibehalten, bis die nächste „Halten und Wischen" Bewegung erfasst wird oder die Person durch direktes Antippen des Kopf- Bereiches 90 oder des Fuß-Bereichs 91 das dort zugeordnete Profil Pl bzw. P2 unmittelbar aktiviert.

Als ein konkretes Beispiel für die dynamische, in Echtzeit ablaufende Erstellung des Zwischen-Profils P3 ist in weiterer Folge auf die Figur 14 verweisen. Sie zeigt das erste Profil PI, das zweite Profil P2 und das dritte Profil P3 in einer Meta-Beschreibung seiner Signalverarbeitungsparameter.

Die Meta-Beschreibung charakterisiert hier in beispielhafter Weise: eine Rauschunterdrückung 93; eine Orientierung 94 der virtuellen Mikrofone, also einen Ambisonic-Fokus; eine Verstärkung bzw. Lautstärke 95; ein Kompressor-Verhältnis 96; einen Bandpass-Frequenzbereich 97. Das erste Profil PI ist für die reine Wahrnehmung von Sprach optimiert, die aus einer Richtung korrespondierend zur Blickrichtung der Person stammt.

Das zweite Profil P2 für allgemeines Rundum-Hören oder in anderen Worten „alles Hörten" optimiert.

Das Zwischen-Profil P3, dass sich durch eine Erfassung einer „Halten und Wischen" Bewegung des Fingers der Person 100 bei einer Positionierung des Fingers 104 genau mittig zwischen dem Kopf-Bereich 91 und dem Fuß- Bereich 92 ergibt, bildet einen in Echtzeit interpolierten Kompromiss für das Hörerlebnis der Person 100 zwischen den beiden Hörerlebnis-Extremen der vordefinierten Profile PI und P2.

Im Folgende ist mit Hilfe der Figuren 15 bis 20 eine Konfiguration- Applikation erörtert, die auf einem Mobiltelefon 98 ausgeführt wird, wobei das Mobiltelefon 98 mit zumindest einer der Verarbeitungsvorrichtungen 2 oder 3 in (Funk)-Verbindung steht, um die von der Person 100 vorgenommen Einstellungen an diese zu Übertragen.

Wie in der Figur 15 zu sehen ist, zeigt die Applikation einen der beiden Touchstripes 20a bzw. 20b und eine Liste der Profilen Pn, Pm, Po, ... die dem Kopf-Bereich 90 oder dem Fuß-Bereich 91 zugeordnet werden können. Im vorliegenden Fall wurde dem Kopf-Bereich 90 durch manuelle Auswahl das Profil Pn und dem Fuß-Bereich das Profil Pm zugeordnet.

Wie in der Figur 16 zu sehen ist, kann die Person 100 unterschiedliche Bewegungen bzw. Gesten aus einer Liste auswählen und diese Bewegungen bzw. Gesten mit Profilen sowohl für die linke wie auch für die rechte Verarbeitungseinrichtung 2 bzw. 3 assoziieren. Damit lassen sich Aktionen in Bezug auf die Anwendungen einzelner Profile auslösen, ohne dass das erwähnte Interpolieren zwischen zwei Profilen erfolgen muss. Die hier angeführten Gesten sind z.B. Berühren & Halten (als „T&H" gekennzeichnet) oder im Klartext angeführt „TIPPEN" und „STREICHEN" nach oben, wobei die Streichrichtung durch einen Pfeil nach oben angegeben ist.

Die Figur 17 zeigt Bewegungen oder Gesten, die auf beiden Touchstripes 20a und 20b im Wesentlichen simultan ausgeführt werden müssen, um das jeweils daneben angeführte Profil Pn - Pp zu aktivieren. Die angeführte Symbolik ist wie folgt zu verstehen. Ein nach oben zeigender Pfeil wie auch ein nach unten zeigender Pfeil repräsentiert eine Wisch- Bewegung, wobei die Richtung des Wischens durch die jeweilige Pfeilrichtung angegeben ist. Ein geschlossener Ring repräsentiert eine einfache kurzzeitige Berührung (ein Antippen). Ein punktierter Ring repräsentiert eine doppelte kurzzeitige Berührung (doppeltes Antippen).

Weiters zeigt die Figur 18 Einstellmöglichkeiten, welche die Funktion und den Betrieb der Touchstripes 20a und 20b betreffen. So lassen sich die beiden Touchstripes 20a und 20b in einem gekoppelten oder nicht gekoppelten (individuellen) Zustand betreiben. Weiters lässt sich die Empfindlichkeit einstellen. Auch kann festgelegt werden, dass ein haptisches Feedback vermittelt werden soll usw.

Die Figur 19 zeigt Einstellungen, wie die erfasste Bewegung oder Geste Gl... G7 zur (Medien)-Steuerung eines externen Geräts, wie z.B. eines Smartphones, genutzt werden können. So lassen sich durch Bewegungen oder Gesten Anrufe annehmen, Anrufe stummschalten, die Lautstärke des externen Geräts erhöhen, reduzieren oder das Gerät stummschalten. Auch kann die Wiedergabe von Liedern, Nachrichten oder andern Multimedia- Quellen gesteuert werde, wie z.B. das Abspielen gestartet werden, das Abspielen pausiert werden, das Abspielen beendet werden oder sogar eine grundlegende Steuerung externen Geräts - im vorliegenden Fall eines PCs - erfolgen usw.

Die Figur 20 zeigt ein Interface zum Erlerne von Bewegungen bzw. Gesten, sodass die Person 100 selbstentwickelte Bewegungen oder Gesten definieren kann oder auch die Charakteristik von vorgegeben Bewegungen oder Gesten den eigenen Bedürfnissen oder Gegebenheiten anpassen kann. Die von der Applikation gelernte Bewegung bzw. Gesten kann dann mit dem jeweiligen Profil (hier z.B. Po) assoziiert werden.

Nachfolgend ist auf den flächenhaften Interaktionsbereich des Eingabemoduls 20 eingegangen. Der flächenhafte Interaktionsbereich kann beispielsweise als durchgehende Bereich zwischen dem Kopfbereich 90 und dem Fußbereich 91 ausgebildet sein. Gemäß einer speziellen Ausbildungsform kann der flächenhaft Interaktionsbereich jedoch auch strukturiert sein. Eine solche strukturierter, flächenhaft Interaktionsbereich ist beispielsweise in der Figuren 21 dargestellt. In dieser Ausbildung weist der Touchstrip 20a bzw. 20b drei separate berührungssensitive Erfassung-Zonen auf, nämlich eine erste Erfassung-Zone 110, eine zweite Erfassung-Zone 111 und eine dritte Erfassung-Zone 112, mit denen aktiv eine Berührung bzw. eine Bewegung auf elektronisch, insbesondere kapazitive Weise, erfassbar ist. Jede der Erfassung-Zonen 110 - 112 des betreffenden Touchstripes 20a bzw. 20b ist mit einem Eingabemodul-Controller (jede mit einem separaten oder alle mit einem gemeinsamen Eingabemodul-Controller) verbunden, so dass Berührungen und Bewegungen, die sich in einer der Erfassung-Zonen 110 -

112 ereignen oder sich von einer der Erfassung-Zone 110 - 112 hin zur anderen Erfassung-Zone 110 - 112 erstrecken, erfassbar sind. Die Erfassung- Zonen 110 - 112 können direkt aneinander angrenzen oder mit Passiv-Zonen

113 und 114, so wie in der Figur 21 dargestellt ist, voneinander getrennt sein. Die Passiv-Zonen 113 und 114 erlauben keine direkte Erfassung einer Berührung oder Bewegung und dienen nur als Abstand zwischen den Erfassung-Zonen 110 - 112. Die Passiv-Zonen 113 - 114 könne gerade, gekrümmt oder - wie in der Figur 21 dargestellt - keilförmig ausgebildet sein.

Mithilfe der drei-geteilten Touchstripes 20a und 20b lassen sich Menübereiche beziehungsweise Menüpunkte physikalisch getrennt der jeweiligen Erfassungszone zuordnen. So lässt sich in Analogie zu den vorangehenden Erörterungen, beispielsweise dem Kopfbereich 90 (hier der ersten Erfassung-Zone 110) ein erstes Profil und dem Fußbereich 91 (hier der dritten Erfassung-Zone 112) ein zweites Profil zuordnen. Zwischen den Profileinstellungen (Werte bzw. Einstellungen der Signalverarbeitungsparameter) der beiden Profile kann bei Vorliegen einer Halten- und Wischen-Bewegung wie erörtert interpoliert werden, um das dynamische Zwischen-Profil zu generieren.

Die mittlere Erfassung-Zone 111 kann als vordefiniertes dritte Profil zwischen die beiden anderen Profile, also das erste und das zweite Profil gelegt werden. Damit können nun entlang des Touchstripes 20a bzw. 20b Zwischen-Profile dynamisch erstellt werden, nämlich eines zwischen den Hörerlebnis-Extremen des ersten Profils und des dritten Profils wie auch eines zwischen der Hörerlebnisextremen des dritten Profils und des zweiten Profils.

Die mittlere Erfassung-Zone 111 kann jedoch auch nur zum raschen Aktivieren eines weiteren Profils oder auch nur einer einzigen Funktion verwendet werden, wohingegen das Zwischen-Profil nur zwischen dem ersten und dem zweiten Profil einstellbar ist. Wie erwähnt, kann das dynamische Überführen - in anderen Worten ein fließender Wechsel - der Einstellungen eines Profils in die Einstellungen eines anderen Profils unter Generierung des dynamischen Zwischen-Profils durch Benutzerinteraktion erfolgen. Dies kann von der Person 100 genutzt werden, wenn diese zwischen verschiedenen Umgebungen wechselt und die Halten- und Wuschen- Bewegung bewusst durchführt. Es kann jedoch auch vorgesehen sein, dass die Verarbeitungseinrichtung 2 bzw. 3 Algorithmen des maschinellen Lernens einsetzt, um Einstellungen der Verarbeitungseinrichtungen vorzunehmen und den Touchstripe 20a bzw. 20b die dort verfügbaren Profile zuzuweisen. Diese Automatismen können auf Grundlage von Echtzeit-Erfassungen von Signalen oder physikalischen Parametern mit Hilfe von Sensoren und/oder der Mikrophone der Verarbeitungseinrichtungen 2 bzw. 3 ablaufen. Auch kann vorgesehen ein, dass automatisch zwischen diesen automatisch zugewiesen Profilen interpoliert wird. Hierfür kann z.B. auf vorab aufgezeichnetes und ausgewertetes Nutzerverhalten zurückgegriffen werden, was beim maschinellen Lernen berücksichtigt wurde.

Unabhängig davon, ob die manuelle oder die vollautomatische Variante zum Einsatz kommt, beinhaltet das Konzept der fließenden Mischung von Parametern, die Fähigkeit, verschiedene Profile oder Parametersätze nahtlos miteinander zu kombinieren, um ein besseres Nutzererlebnis zu erzielen. Dies ermöglicht es erstmals, mehrere Profile, wie zum Beispiel Transparenz, Sprachverstärkung, Musikeinstellung etc., stufenlos miteinander zu mischen. Es lassen sich also Profile nicht mehr im Sinne von entweder/oder aktivieren bw. deaktivieren. Vielmehr liegen diese definierten Profile nur die Eckpunkte fest, zwischen denen abhängig von der jeweiligen vier Position interpoliert wird. So können bei einer Verwendung von jeweils einem Touchstrip 20a und 20b zumindest vier Profile verfügbar sein. Je nachdem, ob die beiden Verarbeitungseinrichtungen 2 und 3 unabhängig voneinander betrieben werden oder in einem gekoppelten Modus betrieben werden, lassen sich dann einerseits - im unabhängigen Betriebsmodus - zur linke wie auch zur rechten Seite jeweils zwei Profile miteinander mischen oder andererseits - im gekoppelten Betriebsmodus - sogar drei oder bis zu vier Profile miteinander mischen. Dass ich die Verarbeitungseinrichtungen 2 bzw. 3 naturgemäß an einer für die eigene visuelle Wahrnehmung unzugänglichen Position am Kopf befinden, kann es vorteilhaft sein, die Gehäuseteile derart auszubilden, dass alleine durch die Berührung des Fingers klar ist, wo sich der Finger gerade befindet. So können beispielsweise die an die Touchstripes 20a bzw. 20b anschließenden Teile der Verarbeitungsvorrichtungen 2 bzw. 3 aus einem anderen material gebildet sein als die Touchtripes 20a und 20b selbst. Auch kann der Rand des Touchstripes 20a bzw. 20b entlang seiner Längserstreckung unterschiedlich ausgebildet, wie z.B. gewellt, geriffelt usw. sein um dem Benutzer eine haptisch wahrnehmbare Positionsinformation zu vermitteln.

In der bisherigen Beschreibung wurde ganz allgemein auf das Mischen beziehungsweise ineinander Verschmelzen von Profilen eingegangen, was sich wie erörtert auf möglichst einfache Weise durch eine Bewegung eines einzigen Fingers entlang des jeweiligen Touchstripes 20a bzw. 20b realisieren lässt. Der Touchstripe 20a bzw. 20b kann jedoch auch zur Steuerung der Ausrichtung virtuellen Mikrophone der Ambisonic- Signalverarbeitungsstufe verwendet werden. In diesem Zusammenhang kann die Verarbeitungseinrichtung auch dazu konfiguriert (programmiert) sein, dass sie erkennt, dass die Person 100 zwei Finger auf den Touchstripe 20a bzw. 20b auflegt.

Nachfolgend ist auf die Figur 22 verweisen. Das Auflegen kann mit v-förmig gespreizten Fingern (z.B. Zeigefinger und Mittelfinger einer Hand) geschehen, wobei jeweils ein Finger am Kopfbereich 90 und ein anderer Finger am Fuß-Bereich 91 aufgelegt wird und dann die Finger (also beide) zueinander hin auf die Mitte des Touchstripes 20a bzw. 20b bewegt werden. Diese Bewegung repräsentiert durch die dabei generierten Interaktionsdaten ID kann von der Verarbeitungseinrichtung 2 bzw. 3 dahingehend interpretiert werden, dass ein Profil eingestellte wird, das eine rundum Schallerfassung als Hörerlebnis ermöglicht ist. Ausgehend vom zuvor eingestellten Profil oder allgemein den gerade bei der Signalverarbeitungskette zur Anwendung kommenden Werten und Einstelllungen der Signalverarbeitungsparameter wir bei erkannter Zweifinger-Bewegung ein fließender Übergang der Werte und Einstellungen vorgenommen, um die rundum Schallerfassung zu erhalten. Nachfolgend ist auf die Figur 23 verweisen. Das Auflegen kann jedoch auch in etwa in der Mitte des Touchstripes 20a bzw. 20b geschehen, wonach beide Finger (z.B. der Zeigefinger und der Mittelfinger einer Hand) voneinander wegbewegt werden, also der eine der beiden Finger hin zu dem Kopfbereich 90 und der andere der beiden Finger hin zu dem Fuß-Bereich 91 bewegt wird. Diese Bewegung repräsentiert durch die dabei generierten Interaktionsdaten ID kann von der Verarbeitungseinrichtung 2 bzw. 3 dahingehend interpretiert werden, dass ein Profil eingestellt wird, das ein frontal nach vorne orientierte Schallerfassung als Hörerlebnis ermöglicht. Ausgehend vom zuvor eingestellten Profil oder allgemein den gerade bei der Signalverarbeitungskette zur Anwendung kommenden Werten und Einstelllungen der Signalverarbeitungsparameter wir bei erkannter Zweifinger-Bewegung ein fließender Übergang der Werte und Einstellungen vorgenommen, um die frontal nach vorne orientierte Schallerfassung zu erhalten.

Der Touchstripe 20a oder 20b kann auch dafür genutzt werden, um einfach nur das akustisch wahrnehmbare Ausgeben des Audiodatenstroms zu unterbinden. So kann einfach nur ein längeres Auflegen des Fingers zum Stummschalten der Schallabgabe interpretiert werden. Bei stummgeschalteter Verarbeitungseinrichtung 2 bzw.3 kann die gleiche Geste wieder zum Aktivieren der Schallabgabe interpretierte werden.

Weiters sei erwähnt, dass ein einfaches Berühren und Halten (den Finger aufgelegt lassen) der Touchstripe 20a oder 20b auch dazu genutzt werden kann, um das erwähnte Home-Profil zu aktivieren. Hierbei kann auch vorgesehen sein, dass bei zeitgleicher Ausführung dieser Bewegung an beiden Ohren, eine Stummschaltung erfolgt.

Weiters kann der Touchstripe 20a bzw. 20b auch zur schrittweisen Selektion von Sprechern in einer Umgebung der Person 100 genutzt werden. So kann beispielsweise das Ambisonic-System vorbereitend die Umgebung der Person 100 analysiert haben und in verschiedenen Richtungen die Existenz unterschiedlicher Sprecher identifiziert haben. Diese Analyse kann natürlich auch fortwährend in Echtzeit erfolgen. Eine relativ langsame Wisch- Bewegung von oben nach unten kann nun dahingehend interpretiert werden, dass der Fokus der virtuellen Mikrophone von einem ersten auf einen zweiten Sprecher im Uhrzeigersinn verändert wird. Eine solche Bewegung von unten nach oben kann dahingehend interpretiert werden, dass der Fokus der virtuellen Mikrophone von einer ersten auf eine zweite Person gegen den Uhrzeigersinn verändert wird.

Die vorangehend erörterten Bewegungen können natürlich auch umgekehrt interpretiert werden.

Im Folgenden ist auf die Figur 24 eingegangen, die eine weitere Visualisierung des Mischens von zwei Profilen PI und P2 in ein bei der Signalverarbeitungskette 30 zur Anwendung kommendes finales drittes Profil P3 zeigen. Das erste Profil PI weist eine Parameter-Sammlung A auf und das zweite Profil P2 weit eine Parameter-Sammlung B auf. Dem Kopf-Bereich 90 des Touchbars 20b ist zu 100% das Profil PI zugeordnet, sodass bei einer dortigen Positionierung des Fingers nur die Parameter-Sammlung A bei der Signalverarbeitungskette 30 zur Anwendung kommt. Dem Fuß-Bereich 91 des Touchbars 20b ist zu 100% das zweite Profil P2 zugeordnet, sodass bei einer dortigen Positionierung des Fingers nur die Parameter-Sammlung B bei der Signalverarbeitungskette 30 zur Anwendung kommt. Bei einer Positionierung des Fingers zwischen diesen beiden Extremen wird je nach Fingerposition FP linear der Anteil der Parameter-Sammlung A (vom Kopf-Bereich 90 hin zum Fuß-Bereich 91 abnehmend) mit dem Anteil der Parameter-Sammlung B (vom Fuß-Bereich 91 hin zum Kopf-Bereich 90 abnehmend) gemischt, sodass sich die Anteile der jeweiligen Parameter-Sammlung A bzw. B immer auf 100% ergänzen. Das Ergebnis dieser Mischung ist in dem dritten Profil P3 manifestier, das die Parameter-Sammlung C aufweist. Die nach oben bzw. nach unten zeigenden Pfeile visualisieren zwischen ihren Spitzen den Spielraum für die Fingerpositionierung am Touchbar 20b.

In Ergänzung zu der Figur 24 zeigt die Figur 25 wie die Fingerposition FP konkret zum Mischen der Profile PI und P2 verwendet wird. Im vorliegenden Fall sei angenommen, dass die erfasste Fingerposition FP mit einem Position-Erfassung-Wert PEW in Prozent zwischen 0% am Fuß-Bereich 91 und 100% am Kopf-Bereich 90 angegeben wird. Beispielhaft ist nun der Finger genau in der Mitte zwischen dem Fuß-Bereich 91 und dem Kopf- Bereich 90 positioniert, sodass die Fingerposition FP mit einem Position- Erfassung-Wert von 50% angegeben wird. Demgemäß wird die Parameter- Sammlung A des ersten Profils sowie die Parameter-Sammlung B des zweiten Profils gewichtet mit jeweils nur 50% zur Anwendung gebracht, um daraus das dritte Profil P3 zu generieren.

Diese Systematik ist beispielhaft in der Figur 26 visualisiert. Hier sind die drei Profile PI bis P3 durch Parameter-Sammlungen A bis C definiert. Jede Parameter-Sammlung A - C beschreibt drei (Audio-) Effekte, nämlich einen ersten EFFECT X, einen zweiten EFFECT Y und einen dritten EFFECT Z, die je nach Profil PI bis P3 mit unterschiedlichem Gewicht bzw. mit unterschiedlicher Intensität (VALUE = 100, VALUE = 50 und VALUE =0) zur Anwendung kommen. Entsprechend der im Zusammenhang mit der Figur 25 festgelegten mittigen Fingerposition FP ergibt sich für die Parameter- Sammlung C das dritte Profil P3 ein VALUE=50 für alle drei EFFECTe X - Z, weil der EFFECT X - Y des jeweiligen Profils 1 bzw. 2 mit 50% bewertet und dann summarisch kombiniert wird.

In weiterer Folge ist vertiefend zu dieser allgemeinen Beschreibung in der Figur 27 eine beispielhafte Parametersammlung für eines der Profile angeführt, das unterschiedliche Audio-Effekte enthält. In der dort angeführten Tabelle ist in der ersten Spalte S1 der betreffende Audio-Effekt als „EFFECT" angeführt, in der zweiten Spalte S2 die Wertbeschreibung mit „VALUE DESC." angeführt und in der dritten Spalte S3 der betreffende Wert mit „VALUE" angeführt.

Die Figur 28 zeigt den Ablauf einer Personalisierung eines Profils, hier des ersten Profils PI, mit Hilfe eines Smartphones SP. Auf dem Smartphone SP wird eine App (Softwareapplikation) ausgeführt, die das nötige User-Interface bereitstellt. Der Benutzer kann zunächst das jeweilige Profil auswählen, das er / sie anpassen möchte. Im vorliegenden Fall wird das Profil für die Parametersammlung A ausgewählt, dem Kopf-Bereich 90 des Touchbars zugeordnet (Auswahl „ASSIGN TO TOP") und der Audio-Effekt A (Auswahl „EFFECT A") mit einem Wert von 100 (Auswahl „VALUE A 100") selektiert. Die Auswahl des Audio-Effekts kann für die zur Verfügung stehenden Audio-Effekte (EFFECT B bis C ) komplettiert werden. Daraus ergibt sich die Parametersammlung A, die in einem Datenblock DB zusammengefasst dargestellt ist. Diese Parametersammlung A wird dann an das Hearing-Device 2 oder 3 oder die Hearing-Devices 2 und 3 (vorangehend als Verarbeitungseinrichtung 2 und 3 bezeichnet) z.B. per Bluetooth übertragen und steht dort für die weitere Audio-Signalverabeitung zur Verfügung.

Es wird abschließend noch einmal darauf hingewiesen, dass es sich bei den vorangehend detailliert beschriebenen Figuren nur um Ausführungsbeispiele handelt, welche vom Fachmann in verschiedenster Weise modifiziert werden können, ohne den Bereich der Erfindung zu verlassen. Es wird der Vollständigkeit halber auch darauf hingewiesen, dass die Verwendung der unbestimmten Artikel „ein" bzw. „eine" nicht ausschließt, dass die betreffenden Merkmale auch mehrfach vorhanden sein können.