Matches in Data.gov.be for { <http://data.gov.be/.well-known/genid/dataset/kulrdr/doi-10-48804/DAEU0M> ?p ?o ?g. }
Showing items 1 to 22 of
22
with 100 items per page.
- DAEU0M accessRights PUBLIC @default.
- DAEU0M bibliographicCitation "Maene, Jaron, 2024, "Code of "On the Hardness of Probaiblistic Neurosymbolic Learning"", https://doi.org/10.48804/DAEU0M, KU Leuven RDR, V1" @default.
- DAEU0M created "2024-10-17T09:22:26Z" @default.
- DAEU0M creator 0000-0001-9474-6150 @default.
- DAEU0M description "Code om alle experimenten te repliceren in het artikel "On the Hardness of Probaiblistic Neurosymbolic Learning", gepubliceerd op ICML2024. De code is ook te vinden op https://github.com/jjcmoon/hardness-nesy. De beperkingen van puur neuraal leren hebben een interesse gewekt in probabilistische neurosymbolische modellen, die neurale netwerken combineren met probabilistische logische redenering. Omdat deze neurosymbolische modellen worden getraind met gradiëntafdaling, bestuderen we de complexiteit van het differentiëren van probabilistisch redeneren. We bewijzen dat hoewel het benaderen van deze gradiënten in het algemeen onhandelbaar is, het tijdens de training tracteerbaar wordt. Verder introduceren we WeightME, een onbevooroordeelde gradiëntschatting op basis van modelbemonstering. Bij milde aannames benadert WeightME de gradiënt met probabilistische garanties met behulp van een logaritmisch aantal oproepen naar een SAT-oplosser. Tot slot evalueren we de noodzaak van deze garanties op de helling. Onze experimenten geven aan dat de bestaande vooringenomen benaderingen inderdaad moeite hebben om te optimaliseren, zelfs wanneer exacte oplossingen nog steeds haalbaar zijn." @default.
- DAEU0M description "Code pour reproduire toutes les expériences dans l'article "Sur la dureté de l'apprentissage neurosymbolique probaibliste", publié à ICML2024. Le code peut également être consulté à l’adresse https://github.com/jjcmoon/hardness-nesy. Les limites de l'apprentissage purement neuronal ont suscité un intérêt pour les modèles neurosymboliques probabilistes, qui combinent des réseaux neuronaux avec un raisonnement logique probabiliste. Comme ces modèles neurosymboliques sont entraînés avec une descente en gradient, nous étudions la complexité de la différenciation du raisonnement probabiliste. Nous prouvons que bien que l'approximation de ces gradients soit intraitable en général, elle devient traitable pendant l'entraînement. De plus, nous introduisons WeightME, un estimateur de gradient non biaisé basé sur l'échantillonnage du modèle. Sous des hypothèses modérées, WeightME se rapproche du gradient avec des garanties probabilistes en utilisant un nombre logarithmique d'appels à un solveur SAT. Enfin, nous évaluons la nécessité de ces garanties sur le gradient. Nos expériences indiquent que les approximations biaisées existantes ont effectivement du mal à optimiser même lorsque la résolution exacte est encore possible." @default.
- DAEU0M description "Code to replicate all the experiments in the paper "On the Hardness of Probaiblistic Neurosymbolic Learning", published at ICML2024. The code can also be found at https://github.com/jjcmoon/hardness-nesy. The limitations of purely neural learning have sparked an interest in probabilistic neurosymbolic models, which combine neural networks with probabilistic logical reasoning. As these neurosymbolic models are trained with gradient descent, we study the complexity of differentiating probabilistic reasoning. We prove that although approximating these gradients is intractable in general, it becomes tractable during training. Furthermore, we introduce WeightME, an unbiased gradient estimator based on model sampling. Under mild assumptions, WeightME approximates the gradient with probabilistic guarantees using a logarithmic number of calls to a SAT solver. Lastly, we evaluate the necessity of these guarantees on the gradient. Our experiments indicate that the existing biased approximations indeed struggle to optimize even when exact solving is still feasible." @default.
- DAEU0M description "Code, um alle Experimente in dem Paper "On the Hardness of Probaiblistic Neurosymbolic Learning" zu replizieren, das am ICML2024 veröffentlicht wurde. Der Code ist auch unter https://github.com/jjcmoon/hardness-nesy zu finden. Die Einschränkungen des rein neuronalen Lernens haben ein Interesse an probabilistischen neurosymbolischen Modellen geweckt, die neuronale Netzwerke mit probabilistischem logischem Denken kombinieren. Da diese neurosymbolischen Modelle mit Gradientenabstieg trainiert werden, untersuchen wir die Komplexität des differenzierenden probabilistischen Denkens. Wir beweisen, dass die Annäherung dieser Steigungen zwar im Allgemeinen unlösbar ist, aber während des Trainings lösbar wird. Darüber hinaus führen wir WeightME ein, einen unvoreingenommenen Gradientenschätzer, der auf Modellstichproben basiert. Unter milden Annahmen nähert sich WeightME dem Gradienten mit probabilistischen Garantien unter Verwendung einer logarithmischen Anzahl von Anrufen an einen SAT-Solver an. Schließlich bewerten wir die Notwendigkeit dieser Garantien auf dem Gefälle. Unsere Experimente zeigen, dass die vorhandenen voreingenommenen Approximationen in der Tat Schwierigkeiten haben, sie zu optimieren, selbst wenn eine genaue Lösung noch möglich ist." @default.
- DAEU0M identifier "doi:10.48804/DAEU0M" @default.
- DAEU0M issued "2024-10-18T15:35:12Z" @default.
- DAEU0M modified "2024-10-18T15:35:12Z" @default.
- DAEU0M publisher 0419052173 @default.
- DAEU0M title "Code de "Sur la dureté de l'apprentissage neurosymbolique probaibliste"" @default.
- DAEU0M title "Code of "On the Hardness of Probaiblistic Neurosymbolic Learning"" @default.
- DAEU0M title "Code of "Über die Härte des probaiblistischen neurosymbolischen Lernens"" @default.
- DAEU0M title "Code van "Over de hardheid van probaiblistisch neurosymbolisch leren"" @default.
- DAEU0M type Dataset @default.
- DAEU0M contactPoint genid68019 @default.
- DAEU0M keyword "neurosymbolic AI" @default.
- DAEU0M landingPage DAEU0M @default.
- DAEU0M theme TECH @default.
- DAEU0M version "1" @default.