Matches in Data.gov.be for { <http://data.gov.be/.well-known/genid/dataset/kulrdr/doi-10-48804/SVEABM> ?p ?o ?g. }
Showing items 1 to 37 of
37
with 100 items per page.
- SVEABM accessRights PUBLIC @default.
- SVEABM bibliographicCitation "Rusci, Manuele; Fariselli, Marco; Paci, Francesco; Flamand, Eric; Tuytelaars, Tinne, 2024, "Replication Data for: Self-Learning for Personalized Keyword Spotting on Ultra-Low-Power Audio Sensors", https://doi.org/10.48804/SVEABM, KU Leuven RDR, V1" @default.
- SVEABM contributor 0000-0001-7458-4019 @default.
- SVEABM contributor 0000-0003-3307-9723 @default.
- SVEABM created "2024-12-05T09:59:36Z" @default.
- SVEABM creator 706d67bc466107f33a89cb61c4420aa714ffb0d7 @default.
- SVEABM creator 8308e4415c4861e590b755351f50de5d9398d2ad @default.
- SVEABM creator e9d5906011f8ba22363e81c4a5dc1cc48b7ff28a @default.
- SVEABM creator 0000-0001-7458-4019 @default.
- SVEABM creator 0000-0003-3307-9723 @default.
- SVEABM description "Ce répertoire comprend les données permettant de reproduire les résultats du document: « Self-Learning for Personalized Keyword Spotting on Ultra-Low-Power Audio Sensors ». Dans ce travail, nous avons enregistré un ensemble de données d'échantillons de parole avec notre capteur de microphone après avoir rejoué un sous-ensemble de données du jeu de données HeySnips à l'aide d'un haut-parleur. Les données vocales collectées (total de 400 échantillons) sont réparties entre un testet et une rame, les deux comprenant des énoncés «Hey Snips» et des énoncés non «Hey Snips». En particulier, les données du testet sont composées d'enregistrements de 20 haut-parleurs aléatoires du testet original. Après l'enregistrement, les données ont été transmises à nos modèles DNN déployés sur des appareils. Initialement, un vecteur prototype par haut-parleur est calculé en alimentant trois enregistrements audio des mots-clés cibles. Ensuite, les pistes audio de l'ensemble de formation sont traitées avec une approche par fenêtre coulissante pour calculer la distance par rapport au prototype et attribuer des pseudo-étiquettes pour la tâche d'auto-apprentissage. L'ensemble de données est donc composé de deux partitions principales. Tout d'abord, le "recorded_speech_data" inclut les enregistrements audio. Notez que cet ensemble de données est sous accès restreint pour ne pas violer les conditions d'accès de l'ensemble de données d'origine. Deuxièmement, les "processed_outputs" incluent la sortie du traitement, c'est-à-dire les distances mesurées. En utilisant l'ensemble de données en combinaison avec le code associé, chaque utilisateur sera en mesure de reproduire les résultats du papier." @default.
- SVEABM description "Dieses Repository enthält die Daten für die Reproduktion der Ergebnisse des Papiers: "Self-Learning for Personalized Keyword Spotting on Ultra-Low-Power Audio Sensors". In dieser Arbeit haben wir einen Datensatz von Sprachproben mit unserem Mikrofonsensor aufgenommen, nachdem wir eine Teilmenge von Daten aus dem HeySnips-Datensatz mit einem Lautsprecher wiedergegeben hatten. Die gesammelten Sprachdaten (insgesamt 400 Samples) werden zwischen einem Testset und einem Trainset aufgeteilt, beide enthalten "Hey Snips" -Aussagen und Nicht-"Hey Snips" -Aussagen. Insbesondere werden die Daten des Testset durch Aufnahmen von 20 zufälligen Lautsprechern aus dem Original-Testet komponiert. Nach der Aufzeichnung wurden die Daten in unsere DNN-Modelle eingespeist, die auf Geräten eingesetzt wurden. Zunächst wird ein pro-lautsprecher-prototyp-vektor berechnet, indem drei audioaufnahmen der ziel-keywords zugeführt werden. Als nächstes werden die Audiospuren des Trainingssets mit einem Schiebefenster-Ansatz verarbeitet, um die Entfernung in Bezug auf den Prototyp zu berechnen und Pseudo-Labels für die selbstlernende Aufgabe zuzuweisen. Der Datensatz besteht daher aus zwei Hauptpartitionen. Zuerst enthält die "recorded_speech_data" die Audio-Aufnahmen. Beachten Sie, dass dieser Datensatz unter eingeschränktem Zugriff steht, um nicht gegen die Zugriffsbedingungen des ursprünglichen Datensatzes zu verstoßen. Zweitens beinhalten die "processed_outputs" die Ausgabe der Verarbeitung, also die gemessenen Abstände. Durch die Verwendung des Datensatzes in Kombination mit dem zugehörigen Code kann jeder Benutzer die Ergebnisse des Papiers reproduzieren." @default.
- SVEABM description "Dit register bevat de gegevens voor het reproduceren van de resultaten van het document: Self-Learning voor gepersonaliseerde zoekwoorden spotten op ultra-low-power audiosensoren. In dit werk hebben we een dataset van spraakstalen opgenomen met onze microfoonsensor na het afspelen van een subset van gegevens uit de HeySnips-dataset met behulp van een luidspreker. De verzamelde spraakgegevens (totaal 400 samples) worden verdeeld tussen een testset en een treinstel, beide inclusief "Hey Snips" uitingen en niet-"Hey Snips" uitingen. In het bijzonder zijn de gegevens van de testset samengesteld uit opnames van 20 willekeurige luidsprekers uit de originele testset. Na de opname werden de gegevens ingevoerd in onze DNN-modellen die op apparaten werden ingezet. Aanvankelijk wordt een prototypevector per luidspreker berekend door drie audio-opnamen van de doelzoekwoorden te voeden. Vervolgens worden de audiotracks van de trainingsset verwerkt met een schuifvensterbenadering om de afstand ten opzichte van het prototype te berekenen en pseudolabels toe te wijzen voor de zelflerende taak. De dataset bestaat dus uit twee hoofdpartities. Ten eerste omvat de "recorded_speech_data" de audio-opnamen. Merk op dat deze dataset beperkt toegankelijk is om de toegangsvoorwaarden van de oorspronkelijke dataset niet te schenden. Ten tweede omvatten de "processed_outputs" de output van de verwerking, d.w.z. de gemeten afstanden. Door de dataset te gebruiken in combinatie met de bijbehorende code, kan elke gebruiker de resultaten van het papier reproduceren." @default.
- SVEABM description "This repository includes the data for reproducing the results of the paper: "Self-Learning for Personalized Keyword Spotting on Ultra-Low-Power Audio Sensors". In this work, we recorded a dataset of speech samples with our microphone sensor after replaying a subset of data from the HeySnips dataset using a speaker. The collected speech data (total of 400 samples) are split between a testset and a trainset, both including "Hey Snips" utterances and non-"Hey Snips" utterances. In particular, the data of the testset is composed by recordings from 20 random speakers from the original testset. After the recording, the data were fed to our DNN models deployed on devices. Initially, a per-speaker prototype vector is computed by feeding three audio recordings of the target keywords. Next, the audio tracks of the training set are processed with a sliding window approach to compute the distance with respect to the prototype and assign pseudo-labels for the self-learning task. The dataset is, therefore, composed of two main partitions. First, the "recorded_speech_data" includes the audio recordings. Note that this dataset is under restricted access to not violate the terms of access of the original dataset. Second, the "processed_outputs" includes the output of the processing, i.e. the measured distances. By using the dataset in combination with the associated code, every user will be able to reproduce the results of the paper." @default.
- SVEABM identifier "doi:10.48804/SVEABM" @default.
- SVEABM issued "2024-12-12T13:41:55Z" @default.
- SVEABM modified "2024-12-12T13:41:55Z" @default.
- SVEABM publisher 0419052173 @default.
- SVEABM rights 2e33a677e7970627d489b4c1517f1c01b7c05804 @default.
- SVEABM title "Données de réplication pour: Auto-apprentissage pour le repérage personnalisé de mots-clés sur des capteurs audio ultra-faible puissance" @default.
- SVEABM title "Replicatiegegevens voor: Self-Learning voor gepersonaliseerde zoekwoorden spotten op ultra-low-power audiosensoren" @default.
- SVEABM title "Replication Data for: Self-Learning for Personalized Keyword Spotting on Ultra-Low-Power Audio Sensors" @default.
- SVEABM title "Replikationsdaten für: Selbstlernen für personalisierte Keyword-Spotting auf Ultra-Low-Power-Audiosensoren" @default.
- SVEABM citedBy genid67534 @default.
- SVEABM citedBy genid67535 @default.
- SVEABM citedBy genid67536 @default.
- SVEABM type Dataset @default.
- SVEABM contactPoint genid67538 @default.
- SVEABM keyword "keyword spotting" @default.
- SVEABM keyword "personalized KWS" @default.
- SVEABM keyword "pseudo-labels" @default.
- SVEABM keyword "self-training" @default.
- SVEABM keyword "unsupervised incremental learning" @default.
- SVEABM landingPage SVEABM @default.
- SVEABM theme TECH @default.
- SVEABM version "1" @default.
- SVEABM isFundedBy genid67537 @default.