src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Abstract-A bootstrap teknik för närmaste granne klassificering design föreslås. Vårt främsta intresse för att designa en klassificerare är i små träningsprovstorlekssituationer. Konventionella bootstrappningstekniker provar träningsproven med ersättning. Å andra sidan genererar vår teknik bootstrap prover genom att lokalt kombinera original träningsprover. Närmaste grannklassare är utformad på bootstrap proverna och testas på proverna oberoende av träningsprover. Den föreslagna klassificeringens prestanda visas på tre artificiella datamängder och en verklig datamängd. Experimentella resultat visar att den närmaste grannklassifieraren utformad på bootstrap-proverna överträffar de konventionella k-NN-klassificeringarna samt de redigerade 1 -NN-klassificeringarna, särskilt i höga dimensioner. Index Terms-Bootstrap, närmaste granne klassificerare, felfrekvens, toppfenomen, liten träningsprov storlek, höga dimensioner, utlier.
Deras experimentella resultat visade att närmaste granne klassificerare baserat på bootstrap prover överträffar de konventionella KNn klassificerare, främst när de testade exemplen är i höga dimensioner REF.
3,078,224
A Bootstrap Technique for Nearest Neighbor Classifier Design
{'venue': 'IEEE Trans. Pattern Anal. Mach. Intell.', 'journal': 'IEEE Trans. Pattern Anal. Mach. Intell.', 'mag_field_of_study': ['Computer Science']}
14,660
Abstract-Manipulering av deformerbara objekt ofta kräver en robot att tillämpa specifika krafter för att föra objektet i önskad konfiguration. Till exempel kräver åtdragning av en knut att man drar i ändarna, att man plattar till en klädesplagg kräver att rynkor jämnas ut, och att man raderar en whiteboardbräda kräver att man trycker nedåt. Vi presenterar en metod för att lära sig styrkebaserade manipulationsfärdigheter från demonstrationer. Vårt tillvägagångssätt använder icke-rigid registrering för att beräkna en warpfunktion som omvandlar både end-effector poser och krafter i varje demonstration till den nuvarande scenen, baserat på konfigurationen av objektet. Vår metod använder sedan variationen mellan demonstrationerna för att extrahera en enda bana, tillsammans med tidsvarierande återkopplingsvinster som bestämmer hur mycket som ska matcha poser eller krafter. Detta resulterar i en inlärd variabelimpedanskontrollstrategi som avlastar kraft- och positionsfel, vilket ger rätt nivå av överensstämmelse som tillämpar de nödvändiga krafterna i varje steg av förslaget. Vi utvärderar vår strategi genom att knyta knutar i rep, platta handdukar och radera en whiteboard.
Dessutom är medelvärdet av banor med varierande feedback vinst extraheras med objekt centrerad förvrängning av de demonstrerade banor för åtdragning knopar, platta handdukar, och radering en white board REF.
14,777,239
Learning force-based manipulation of deformable objects from multiple demonstrations
{'venue': '2015 IEEE International Conference on Robotics and Automation (ICRA)', 'journal': '2015 IEEE International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Engineering', 'Computer Science']}
14,661
Abstrakt. Vi anser att problemet med att extrahera strukturerade poster från halvstrukturerade webbsidor utan mänsklig övervakning krävs för varje målwebbplats. Tidigare arbete med detta problem har antingen krävt betydande mänsklig ansträngning för varje målplats eller använt sköra heuristik för att identifiera semantiska datatyper. Vår metod kräver endast annotering för några sidor från några få platser i måldomänen. Efter en liten investering i mänsklig ansträngning tillåter vår metod därför automatisk utvinning från potentiellt tusentals andra platser inom samma domän. Vårt tillvägagångssätt utökar tidigare metoder för att upptäcka datafält på halvstrukturerade webbsidor genom att matcha dessa fält med domänschemakolumner med hjälp av robusta modeller av datavärden och sammanhang. Observera 2-5 sidor för 4-6 webbplatser ger en extraktion noggrannhet på 83,8% på jobberbjudanden webbplatser och 91,1% på semester hyresplatser. Dessa resultat överträffar betydligt en baslinjemetod.
Den litteratur REF erbjöd tekniken används för att extrahera strukturerade poster från halvstrukturerade webbsidor utan mänsklig inblandning.
9,040,930
Bootstrapping Information Extraction from Semi-structured Web Pages ⋆
{'venue': 'ECML/PKDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,662
Abstract-Modern videospelare idag förlitar sig på bit-rate anpassning för att svara på förändrade nätverksförhållanden. Tidigare mätningsstudier har identifierat problem med dagens kommersiella aktörer när flera bit-rate-adaptiva spelare har en flaskhalslänk med avseende på tre mått: rättvisa, effektivitet och stabilitet. Tyvärr är vår nuvarande förståelse av varför dessa effekter uppstår och hur de kan mildras ganska begränsad. I detta papper presenterar vi en principiell förståelse av bit-rate anpassning och analysera flera kommersiella spelare genom linsen av en abstrakt spelare modell som består av tre huvudkomponenter: bandbreddsberäkning, bit-rate val, och bit schemaläggning. Med hjälp av ramverk, identifierar vi grundorsakerna till flera oönskade interaktioner som uppstår som en följd av överläggning video bit-rate anpassning över HTTP. Med utgångspunkt i dessa insikter utvecklar vi en uppsättning tekniker som systematiskt kan styra avvägningarna mellan stabilitet, rättvisa och effektivitet och därmed leda till en allmän ram för robust videoanpassning. Vi väljer en konkret instans från detta designutrymme och visar att det avsevärt överträffar dagens kommersiella aktörer på alla tre nyckelmått över en rad experimentella scenarier. Index Terms-Bit-rate anpassning, DASH, HTTP, Internet video, kvalitet på erfarenhet (QoE).
REF utvecklade en uppsättning tekniker som kan vägleda avvägningarna mellan stabilitet, rättvisa och effektivitet, vilket leder till en allmän ram för robust videoanpassning.
25,584,611
Improving Fairness, Efficiency, and Stability in HTTP-Based Adaptive Video Streaming With Festive
{'venue': 'TNET', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,663
Databrist är ett av de största hindren för domänanpassning i talspråksförståelse (SLU) på grund av den höga kostnaden för att skapa manuellt märkta SLU-dataset. Nya verk i neural text generativa modeller, särskilt latenta variabla modeller såsom variations autoencoder (VAE), har visat lovande resultat i fråga om att generera rimliga och naturliga meningar. I detta dokument föreslår vi en ny generativ arkitektur som utnyttjar den generativa kraften hos latenta variabla modeller för att gemensamt syntetisera fullt kommenterade uttalanden. Våra experiment visar att befintliga SLU-modeller som är utbildade på ytterligare syntetiska exempel uppnår prestandavinster. Vårt tillvägagångssätt bidrar inte bara till att lindra problemet med databrist i SLU:s uppgift för många datauppsättningar utan förbättrar också urskillningslöst språkförståelsen för olika SLU-modeller, med stöd av omfattande experiment och noggranna statistiska tester.
REF använder en variantal autoencoder för att generera märkt språk.
52,177,946
Data Augmentation for Spoken Language Understanding via Joint Variational Generation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
14,664
Vi presenterar en metod som lär sig ordet inbäddning för Twitter känsla klassificering i denna uppsats. De flesta befintliga algoritmer för att lära kontinuerliga ord representationer typiskt bara modellera den syntaktiska sammanhang av ord men ignorera känslan av text. Detta är problematiskt för känsloanalys eftersom de vanligtvis kartlägger ord med liknande syntaktiska sammanhang men motsatta känslor polaritet, såsom bra och dåliga, till angränsande ord vektorer. Vi tar itu med denna fråga genom att lära sig känslospecifika ord inbäddning (SSWE), som kodar känslor information i den kontinuerliga representationen av ord. Speciellt utvecklar vi tre neurala nätverk för att effektivt införliva övervakningen från känslopolaritet av text (t.ex. meningar eller tweets) i sina förlustfunktioner. För att få storskalig träning corpora, lär vi oss det känslospecifika ordet inbäddning från massiva fjärrövervakade tweets samlas av positiva och negativa smilisar. Experiment om tillämpning av SS-WE på ett riktmärke Twitter-känslor klassificering dataset i SemEval 2013 visar att (1) SSWE-funktionen utför jämförbart med handgjorda funktioner i det topp-performade systemet; (2) prestandan förbättras ytterligare genom att sammanfalla SSWE med befintliga funktioner set.
REF föreslår en modell som heter SSWE för att lära sig känsla-medveten inbäddning genom att införliva känslor polaritet texter i förlustfunktionerna i neurala nätverk.
886,027
Learning Sentiment-Specific Word Embedding for Twitter Sentiment Classification
{'venue': 'Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)', 'journal': 'Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)', 'mag_field_of_study': ['Computer Science']}
14,665
Abstract-Full-duplex (FD) radio har införts för dubbelriktad kommunikation på samma tids- och spektral resurser för att maximera spektral effektivitet. I detta dokument, motiverat av de senaste framstegen i FD-radio, ger vi en grund för HDHNs, som består av multi-tier-nätverk med en blandning av APs, som arbetar antingen i dubbelriktat FD-läge eller nedlänk HD-läge. Specifikt karakteriserar vi nätverksinterferensen från FD-lägesceller, och härleder HDHN-genomströmningen genom att redovisa AP:s rumsliga densitet, själv-IC-kapacitet och överföringskraft hos AP:er och användare. Genom att kvantifiera HDHN-genomströmningen presenterar vi effekten av nätverksparametrar och självinblandningens (IC) kapacitet på HDHN-genomströmningen, och visar överlägsenheten av FD-läge för större AP-tätheter (dvs. större nätverksinterferens och kortare kommunikationsavstånd) eller högre själv-IC-kapacitet. Dessutom visar våra resultat att drift av alla AP i FD eller HD uppnår högre genomströmning jämfört med blandningen av två mode AP i varje nivå nätverk, och att införa hybrid-duplex för olika nivå nätverk förbättrar heterogena nätverk genomströmning.
I REF, Lee och Quek kännetecknade genomströmningen av hybrid-duplex heterogena nätverk som består av multi-tier nätverk med AP:er som arbetar i antingen FD dubbelriktat läge eller HD-nedlänkläge.
8,956,758
Hybrid Full-/Half-Duplex System Analysis in Heterogeneous Wireless Networks
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
14,666
Abstrakt. Multitask Learning är ett förhållningssätt till induktiv överföring som förbättrar generaliseringen genom att använda domäninformationen i utbildningssignalerna för relaterade uppgifter som en induktiv bias. Det gör det genom att lära sig uppgifter parallellt samtidigt som man använder en delad representation; det man lär sig för varje uppgift kan hjälpa andra uppgifter att lära sig bättre. I detta dokument granskas tidigare arbete med MTL, presenteras nya bevis för att MTL i backprop-nät upptäcker uppgiftssamband utan behov av övervakning signaler, och presenterar nya resultat för MTL med k-nearest granne och kärna regression. I detta dokument demonstrerar vi multitask-inlärning inom tre områden. Vi förklarar hur multitask-inlärning fungerar och visar att det finns många möjligheter till multitask-inlärning inom verkliga områden. Vi presenterar en algoritm och resultat för multitask lärande med fallbaserade metoder som k-nearest granne och kärna regression, och skissa en algoritm för multitask lärande i beslut träd. Eftersom multitask lärande fungerar, kan tillämpas på många olika typer av domäner, och kan användas med olika inlärningsalgoritmer, antar vi att det kommer att finnas många möjligheter för dess användning på verkliga problem.
Vårt arbete är också relaterat till multi-task learning (MTL) REF, som syftar till att gemensamt lära sig flera uppgifter med hjälp av en delad representation så att kunskap som erhållits från en uppgift kan hjälpa andra uppgifter.
207,752,942
Multitask Learning
{'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science']}
14,667
Abstract-Vikten av dominans och skyline analys har varit väl erkänd i multi-criteria beslutsfattande ansökningar. De flesta tidigare studier fokuserar på hur man kan hjälpa kunderna att hitta en uppsättning "bästa" möjliga produkter från en pool av givna produkter. I denna uppsats identifierar vi ett intressant problem, att hitta topp-k lönsamma produkter, som inte har studerats tidigare. Med tanke på en uppsättning produkter på den befintliga marknaden vill vi hitta en uppsättning k "bästa" möjliga produkter så att dessa nya produkter inte domineras av produkterna på den befintliga marknaden. I detta problem måste vi sätta priserna på dessa produkter så att den totala vinsten maximeras. Vi hänvisar till sådana produkter som top-k lönsamma produkter. En enkel lösning är att räkna upp alla möjliga undergrupper av storlek k och hitta undergruppen som ger den största vinsten. Det finns dock ett exponentiellt antal möjliga undergrupper. I detta dokument föreslår vi lösningar för att hitta de bästa lönsamma produkterna på ett effektivt sätt. En omfattande prestandastudie med hjälp av både syntetiska och verkliga dataset rapporteras för att verifiera dess effektivitet och effektivitet.
REF tar dock inte hänsyn till det dynamiska fallet med att hitta lönsamma topk-produkter och problemet med att hitta populära top-k-produkter som studeras i detta dokument.
14,485,838
Finding top-k profitable products
{'venue': '2011 IEEE 27th International Conference on Data Engineering', 'journal': '2011 IEEE 27th International Conference on Data Engineering', 'mag_field_of_study': ['Computer Science']}
14,668
Sedan introduktionen 2006 har meddelanden som postats till mikrobloggningssystemet Twitter tillhandahållit en rik datauppsättning för forskare, vilket lett till publicering av över tusen akademiska uppsatser. Syftet med denna uppsats är att identifiera detta publicerade arbete och klassificera det för att förstå Twitterbaserad forskning. För det första identifierades dokumenten på Twitter. För det andra fastställdes efter en genomgång av litteraturen en klassificering av mikrobloggningsforskningens dimensioner. För det tredje klassificerades papper kvalitativt med hjälp av öppen kodad innehållsanalys baserad på papperets titel och abstrakt för att analysera metod, ämne och förhållningssätt. Merparten av det publicerade arbetet med Twitter är inriktat på aspekter av de meddelanden som skickas och information om användarna. En rad olika metodologiska metoder används inom en rad identifierade områden. Detta arbete granskade abstracts av alla dokument som finns tillgängliga via databassökning på termen Twitter och detta har två viktiga konsekvenser som de fullständiga tidningarna inte beaktas och därför kan verk vara felklassificerade om deras abstract inte är klart, 2) publikationer som inte indexeras av databaserna, såsom bokkapitel, inte ingår. Studien är inriktad på mikrobloggning, metodens tillämplighet på andra medier beaktas inte. Hittills har det inte gjorts någon övergripande studie för att titta på metoder och syfte för dem som använder Twitter som forskningsämne. Vårt stora bidrag är att gå igenom artiklar som publicerats på Twitter fram till slutet av 2011. Den härledda klassificeringen kommer att ge en ram inom vilken forskare som studerar Twitterrelaterade ämnen kommer att kunna positionera och underbygga sitt arbete.
Ett stort antal studier har genomförts på Twitter för en mängd olika ändamål REF.
18,581,291
What do people study when they study Twitter? Classifying Twitter related academic papers
{'venue': 'Journal of Documentation', 'journal': 'Journal of Documentation', 'mag_field_of_study': ['Computer Science']}
14,669
Att säkerställa att multitrådade program är korrekta är svårt, på grund av potentialen för oväntade och icke-deterministiska interaktioner mellan trådar. Tidigare arbete tog itu med detta problem genom att ta fram verktyg för att upptäcka rasförhållanden, en situation där två trådar samtidigt får tillgång till samma datavariabel, och åtminstone en av åtkomsterna är en skrift. Det är dock varken nödvändigt eller tillräckligt att kontrollera avsaknaden av sådana villkor för samtidig tillgång till rasen för att säkerställa frånvaron av fel på grund av oväntade trådinteraktioner. Vi föreslår att det krävs en starkare icke-inblandningsegendom, nämligen atomäritet. Atomiska metoder kan antas utföra seriellt, utan interleaved steg av andra trådar. Atomiska metoder kan därför användas för sekventiella resonemang, vilket avsevärt förenklar både formella och informella resonemang om programkorrekthet. I detta dokument presenteras ett typsystem för att specificera och verifiera atomiciteten hos metoder i multitrådade Javaprogram. Det atomära typsystemet är en syntes av Liptons teori om reduktion och typsystem för rasdetektering. Vi har implementerat detta atomära typsystem för Java och använt det för att kontrollera en mängd olika vanliga Java biblioteksklasser. Typkontrollen avslöjade subtila atombrott i klasser som java.lang.String och java.lang.StringBuffer som orsakar krascher under vissa trådar interleaveings.
Flanagan och Qadeers REF utvecklade ett typsystem för att specificera och verifiera atomiciteten hos metoder i multitrådade Javaprogram (begreppet "atomicitet" motsvarar isolering i detta dokument).
416,117
A type and effect system for atomicity
{'venue': "PLDI '03", 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,670
Spatialt lokaliserade deformationskomponenter är mycket användbara för formanalys och syntes i 3D geometri bearbetning. Flera metoder har nyligen utvecklats för att extrahera intuitiva och tolkningsbara deformationskomponenter. Dessa tekniker har dock grundläggande begränsningar, särskilt för maskor med buller eller storskaliga deformationer, och kan inte alltid identifiera viktiga deformationskomponenter. I detta dokument föreslår vi en ny mesh-baserad autoencoder arkitektur som klarar av maskor med oregelbunden topologi. Vi introducerar sparsam legalisering i detta ramverk, som tillsammans med konvolutionsoperationer, hjälper till att lokalisera deformationer. Vårt ramverk kan extrahera lokala deformationskomponenter från meshdataset med storskaliga deformationer och är robust mot buller. Det ger också en icke-linjär strategi för återuppbyggnad av maskor med hjälp av den extraherade basen, vilket är mer effektivt än den nuvarande linjära kombinationsmetoden. Omfattande experiment visar att vår metod överträffar toppmoderna metoder i både kvalitativa och kvantitativa utvärderingar.
Tan och Al. I REF föreslogs en ny mesh-baserad variationsarkitektur för autokodare för att hantera oregelbundna topologiska rutnät.
3,766,815
Mesh-based Autoencoders for Localized Deformation Component Analysis
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
14,671
Grammatisk feldiagnos är en viktig uppgift i behandling av naturligt språk. Detta dokument introducerar vårt kinesiska grammatiska feldiagnossystem (CGED) i den gemensamma uppgiften NLP-TEA-3 för CGED. CGED-systemet kan diagnostisera fyra typer av grammatiska fel som är överflödiga ord (R), saknade ord (M), dåligt ordval (S) och oordnade ord (W). Vi behandlar CGED-uppgiften som en sekvensmärkningsuppgift och beskriver tre modeller, inklusive en CRF-baserad modell, en LSTM-baserad modell och en ensemblemodell med stapling. Vi visar också i detalj hur vi bygger och utbildar modellerna. Utvärderingen omfattar tre nivåer, som är detektionsnivå, identifieringsnivå och positionsnivå. På CGED-HSK datauppsättning av NLP-TEA-3 delade uppgift, vårt system presenterar de bästa F1-poäng i alla de tre nivåerna och även den bästa återkallande i de senaste två nivåerna.
Grammatisk feldetektering anses vanligtvis som sekvensen märkning uppgift REF.
14,642,733
Chinese Grammatical Error Diagnosis with Long Short-Term Memory Networks.
{'venue': 'NLP-TEA@COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,673
I den här artikeln är vi intresserade av inlärningsproblemet. I synnerhet fokuserar vi på ett utmanande scenario där antalet kategorier är stort och antalet exempel per ny kategori är mycket begränsat, t.ex. Ett, två eller tre. Motiverade av det nära sambandet mellan parametrarna och aktiveringarna i ett neuralt nätverk associerat med samma kategori, föreslår vi en ny metod som kan anpassa ett förtränat neuralt nätverk till nya kategorier genom att direkt förutsäga parametrarna från aktiveringarna. Noll träning krävs i anpassning till nya kategorier, och snabb slutledning realiseras genom ett enda framåt pass. Vi utvärderar vår metod genom att göra några bilder på Im-ageNet-datasetet, som uppnår den senaste klassificeringsnoggrannheten för nya kategorier med en betydande marginal samtidigt som man bibehåller jämförbara prestanda för de storskaliga kategorierna. Vi testar också vår metod på MiniImageNet dataset och den överträffar starkt de tidigare toppmoderna metoderna.
REF ) utforska relationen mellan träningsfunktion och klassificeringsvikt och anpassa ett neuralt nätverk för att få klassificeringsvikter direkt från träningsfunktionerna.
33,252,535
Few-Shot Image Recognition by Predicting Parameters from Activations
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
14,674
Abstrakt. Nya Internettillämpningar, såsom sociala nät online och användargenererat innehållsdelning, producerar en aldrig tidigare skådad mängd social information, som ytterligare utökas genom lokaliserings- eller samlokaliseringsdata som samlas in från mobiltelefoner. Tyvärr är denna rikedom av social information fragmenterad mellan många olika egenutvecklade tillämpningar. Tillsammans skulle det kunna ge en mer exakt representation av den sociala världen, och det skulle kunna möjliggöra en helt ny uppsättning socialt medvetna tillämpningar. Vi introducerar Prometheus, en peer-to-peer-tjänst som samlar in och hanterar social information från flera källor och implementerar en uppsättning sociala slutledningsfunktioner samtidigt som användardefinierade policyer för åtkomstkontroll upprätthålls. Prometheus är socialt medveten: det gör det möjligt för användare att välja kamrater som hanterar sin sociala information baserad på socialt förtroende och utnyttjar naturligt utformade sociala grupper för bättre prestanda. Vi testade vår Prometheus-prototyp på PlanetLab och byggde en mobil social applikation för att testa prestandan hos dess sociala inferensfunktioner under realtidsbegränsningar. Vi visade att den socialbaserade kartläggningen av användare på kamrater förbättrar servicesvarstiden och hög servicetillgänglighet uppnås med låga omkostnader.
Prometheus introduceras i REF som en P2P-tjänst som samlar in och hanterar social information från flera källor som refereras som sociala sensorer.
9,022,876
Prometheus: User-controlled p2p social data management for socially-aware applications
{'venue': '11th International Middleware Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,675
Sammanhang: Software testing är en viktig aspekt av mjukvarutillförlitlighet och kvalitetssäkring i ett sammanhang där mjukvaruutveckling ständigt måste övervinna enorma utmaningar i en ständigt föränderlig miljö. En av egenskaperna hos programvarutestning är att den har en stor del av det intellektuella kapitalet och därmed kan dra nytta av användningen av erfarenheterna från tidigare projekt. Testning av programvara kan därför potentiellt dra nytta av lösningar som tillhandahålls av kunskapshanteringsdisciplinen. Det finns i själva verket ett antal förslag om effektiv kunskapshantering i samband med flera programvarutekniska processer. Mål: Vi försvarar användningen av ett lärt system för testning av programvara. Anledningen är att ett sådant system är en effektiv kunskapshanteringsresurs som gör det möjligt för testare och chefer att dra nytta av den erfarenhet som finns inlåst i testarnas hjärnor. För att göra detta måste erfarenheterna samlas in, spridas och återanvändas. Metod: Efter att ha analyserat förslagen för hantering av erfarenhet av testning av programvara har betydande svagheter upptäckts i de nuvarande systemen av denna typ. Den arkitektoniska modell som föreslås här för lärda system är utformad för att försöka undvika dessa svagheter. Denna modell (i) definierar strukturen för de erfarenheter som gjorts vid testning av programvara, (ii) fastställer förfaranden för lärd hantering och (iii) stöder utformningen av programvaruverktyg för att hantera de erfarenheter som gjorts. Resultat: Ett annat tillvägagångssätt, baserat på hanteringen av lärdomarna som programvarutestare samlar från vardagserfarenhet, med två grundläggande mål: användbarhet och tillämplighet. Slutsats: Den arkitektoniska modell som föreslås här lägger grunden för att övervinna hindren för att dela och återanvända erfarenheter från testning av programvara och testhantering. Som sådan, Det ger vägledning för att utveckla programvara testning lärda system.
Andrade m.fl. har presenterat den arkitektoniska modellen av LLs i programvarutestning REF.
115,709
An architectural model for software testing lesson learned systems
{'venue': 'Inf. Softw. Technol.', 'journal': 'Inf. Softw. Technol.', 'mag_field_of_study': ['Computer Science']}
14,676
Abstrakt. Uppgiften med automatisk textsammanfattning består av att generera en sammanfattning av den ursprungliga texten som gör det möjligt för användaren att få de viktigaste delarna av information som finns i den texten, men med en mycket kortare lästid. Detta är en allt viktigare uppgift i den nuvarande eran av informationsöverbelastning, med tanke på den enorma mängd text som finns tillgänglig i dokumenten. I detta papper den automatiska textsammanfattningen är kastad som en klassificering (övervakad inlärning) problem, så att maskininlärning-orienterade klassificeringsmetoder används för att producera sammanfattningar för dokument baserade på en uppsättning attribut som beskriver dessa dokument. Målet med tidningen är att undersöka effektiviteten av Genetisk Algoritm (GA)-baserade attribut val för att förbättra prestandan hos klassificeringsalgoritmer lösa automatisk textsammanfattning uppgift. Beräkningsresultat rapporteras för experiment med en dokumentbas som bildas av nyheter hämtade från The Wall Street Journal of the TIPSTER collection - en samling som ofta används som ett riktmärke i textsammanfattningslitteraturen.
Vid summering av texten, Silla m.fl. REF undersökte effektiviteten hos genetiskt algoritmbaserat attributval för att förbättra prestandan hos klassificeringsalgoritmer genom att lösa automatisk textsammanfattningsuppgift.
1,806,876
Automatic text summarization with genetic algorithm-based attribute selection
{'venue': 'Advances in Artificial Intelligence (IBERAMIA 2004, Proc. 9th Ibero-American Conference on AI (2004', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,677
Abstract-Den optimala och distribuerade avsättning av hög genomströmning i nätnät är känd som ett grundläggande men svårt problem. Situationen förvärras i en trådlös miljö på grund av störningar mellan lokala trådlösa sändningar. I detta dokument föreslår vi ett cross-layer optimeringsramverk för throughput maximization i trådlösa mesh nätverk, där data routing problem och det trådlösa medium innehållsproblem är gemensamt optimerade för multihop multicast. Vi visar att genomströmningsmaximering problemet kan brytas ner i två subproblem: en data routing subproblem på nätverkslagret, och en effektkontroll subproblem på det fysiska lagret med en uppsättning Lagrangian dubbla variabler som samordnar interlayer koppling. Olika effektiva lösningar diskuteras för varje delproblem. Vi betonar nätverkskodningstekniken för multicast routing och en spelteoretisk metod för interferenshantering, för vilken effektiva och distribuerade lösningar härleds och illustreras. Slutligen visar vi att den föreslagna ramen kan utvidgas för att ta hänsyn till fysisk-lager trådlös multisändning i nätnät.
Nyligen, en gemensam optimering tillvägagångssätt i REF betonar nätverkskodning teknik för multicast routing och spelteori tillvägagångssätt för interferenshantering.
1,040,413
A Cross-Layer Optimization Framework for Multihop Multicast in Wireless Mesh Networks
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
14,678
Vi presenterar en metod för att sammanfatta insamlingen av tweets relaterade till ett företag. Vårt förfarande aggregat tweets i subtopic kluster som sedan rankas och sammanfattas av några representativa tweets från varje kluster. Centralt för vårt tillvägagångssätt är möjligheten att gruppera olika tweets i kluster. Den breda klustret framkallas av att först lära sig en liten uppsättning affärsrelaterade begrepp automatiskt från fri text och sedan subdividera tweets i dessa begrepp. Cluster ranking utförs med hjälp av en viktig poäng som kombinerar ämne samstämmighet och känsla värde av tweets. Vi diskuterar också alternativa metoder för att sammanfatta dessa tweets och utvärdera tillvägagångssätten med hjälp av en liten användarstudie. Resultaten visar att de konceptbaserade sammanfattningarna rankas positivt av användarna.
REF presenterade en metod för att sammanfatta en samling tweets relaterade till ett företag.
10,840,143
Summarization of Business-Related Tweets: A Concept-Based Approach
{'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,679
När en angripare vill förfalska en bild kommer hon/han i de flesta fall att utföra en JPEG-rekompression. Olika tekniker har utvecklats utifrån olika teoretiska antaganden men mycket effektiva lösningar har ännu inte utvecklats. Nyligen, maskininlärning baserade metoder har börjat visas inom området bild rättsmedicin för att lösa olika uppgifter som förvärv källa identifiering och förfalskning upptäckt. I detta sista fall, målet framöver skulle vara att få en utbildad neurala nätverk kan, med tanke på en att-vara-kontrollerad bild, att på ett tillförlitligt sätt lokalisera de smidda områdena. Med detta i åtanke, vårt dokument föreslår ett steg framåt i denna riktning genom att analysera hur en enda eller dubbel JPEG-komprimering kan avslöjas och lokaliseras med hjälp av konvolutionella neurala nätverk (CNN). Olika typer av bidrag till CNN har beaktats, och olika experiment har genomförts för att också försöka bevisa potentiella frågor som ska undersökas ytterligare.
Ref. ) tog ett steg framåt.
19,328,533
Localization of JPEG Double Compression Through Multi-domain Convolutional Neural Networks
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)', 'mag_field_of_study': ['Computer Science']}
14,680
Detta dokument handlar om ett dynamiskt schemaläggningsproblem för ett kösystem som har två strömmar av ankomster till nite kapacitet bu ers och två (icke-identiska) servrar som arbetar parallellt. En server kan bara bearbeta jobb från en bu er, medan den andra servern kan bearbeta jobb från endera bu er. Fördelningen av servicetiden kan bero på vilken bu er som serveras och vilken server som tillhandahåller tjänsten. Systemhanteraren schemalägger dynamiskt vänta jobb på tillgängliga servrar. Vi anser att ett parametersystem där systemet satis es både en tung tra c tillstånd och en resurs pooling villkor. Vår kostnadsfunktion är en genomsnittlig kumulativ diskonterad kostnad för att hålla jobb i systemet, där (odiskonterad) kostnad per tidsenhet är en linjär funktion av normaliserad (med tung tra c skalning) kölängd. Vi gör en första genomgång av den analytiska lösningen av det brunska kontrollproblemet (formell tung tra c approximation) för detta system. Vi \tolkar" denna lösning genom att föreslå en policy för tröskelkontroll för användning i det ursprungliga parallella serversystemet. Vi visar att denna politik är asymptotiskt optimal i den tunga trafiken och att den begränsande kostnaden är densamma som den optimala kostnaden i det brunska kontrollproblemet. De tekniker som utvecklats här förväntas vara användbara för att analysera prestandan hos policyer av tröskeltyp i mer komplexa multiserversystem. Kort titel: Dynamisk schemaläggning av två parallella servrar.
REF ger asymptotisk optimalitet i systemet för tung trafik.
15,989,955
Dynamic Scheduling of a System with Two Parallel Servers in Heavy Traffic with Resource Pooling: Asymptotic Optimality of a Threshold Policy
{'venue': 'Annals of Applied Probability', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
14,681
Abstract-This paper beskriver Motion Planning Networks (MPNet) 1, en beräkningseffektiv, lärande-baserad neural planerare för att lösa rörelseplanering problem. MPNet använder neurala nätverk för att lära allmänna nära-optimala heuristik för vägplanering i synliga och osynliga miljöer. Den tar emot miljöinformation som punktmoln, samt en robots initiala och önskade målkonfigurationer och rekursivt kallar sig själv för att dubbelriktat generera uppkopplingsbara vägar. Förutom att hitta direkt anslutningsbara och nästan optimala vägar i ett enda pass, visar vi att värsta fall teoretiska garantier kan bevisas om vi slår samman denna neurala nätverksstrategi med klassiska provbaserade planerare i en hybrid strategi samtidigt som betydande beräknings- och optimalitet förbättringar. För att lära sig MPNet-modellerna presenterar vi en aktiv kontinuerlig inlärningsmetod som gör det möjligt för MPNet att lära sig av strömmande data och aktivt be om expertdemonstrationer när det behövs, drastiskt minska data för utbildning. Vi validerar MPNet mot guldstandard och toppmoderna planeringsmetoder i en mängd olika problem från 2D till 7D robot konfigurationsutrymmen i utmanande och belamrade miljöer, med resultat som visar betydande och konsekvent starkare prestandamått, och motiverande neural planering i allmänhet som en modern strategi för att lösa rörelseplanering problem effektivt.
Beräkningseffektiviteten är också ett annat problem i robotens högdimensionella konfigurationsutrymme REF.
196,622,676
Motion Planning Networks: Bridging the Gap Between Learning-based and Classical Motion Planners
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Engineering']}
14,682
Aktivitetsorienterad dialog fokuserar på samtalsagenter som deltar i dialoger med användarmål om domänspecifika ämnen. I motsats till chatbots, som helt enkelt försöker upprätthålla en öppen meningsfull diskurs, befintliga uppgiftsorienterade agenter brukar explicit modellera användar intention och tro stater. Detta dokument undersöker förbigå en sådan explicit representation genom att beroende på en latent neural inbäddning av tillstånd och lära selektiv uppmärksamhet till dialog historia tillsammans med kopiering för att införliva relevanta tidigare sammanhang. Vi kompletterar det senaste arbetet genom att visa effektiviteten av enkla sekvens-till-sekvens neurala arkitekturer med en kopieringsmekanism. Vår modell överträffar mer komplexa memory-augmented modeller med 7% i per-respons generation och är på samma nivå som den nuvarande state-of-the-art på DSTC2, en verklig uppgiftsorienterad dialog datauppsättning.
REF använder en kopia förstärkt Seq2seq modell för att lära uppgiftsorienterade dialoger.
11,365,698
A Copy-Augmented Sequence-to-Sequence Architecture Gives Good Performance on Task-Oriented Dialogue
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
14,683
Vi studerar hur man kommunicerar resultaten av Bayesian inference till tredje part, samtidigt som den starka garantin för differentiell integritet bevaras. Våra huvudsakliga bidrag är fyra olika algoritmer för privata Bayesian inference på probabilistiska grafiska modeller. Dessa omfattar två mekanismer för att lägga till buller till Bayesian uppdateringar, antingen direkt till de bakre parametrarna, eller till deras Fourier transform för att bevara uppdateringskonsistens. Vi använder också en nyligen införd bakre provtagningsmekanism, för vilken vi bevisar gränser för specifika men allmänna fall av diskreta Bayesiska nätverk, och vi inför en maximal privat mekanism. Vår analys inkluderar användbarhets- och sekretessgränser, med ett nytt fokus på grafstrukturens påverkan på integriteten. Arbetade exempel och experiment med Bayesian naiva Bayes och Bayesian linjär regression illustrerar tillämpningen av våra mekanismer.
Zhang m.fl. I REF undersöktes en uppsättning mekanismer för hur man skulle kunna förmedla resultaten av Bayesians slutsatser till tredje part om den starka garantin för differentiell integritet.
11,369,577
On the Differential Privacy of Bayesian Inference
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
14,684
Vi föreslår ett nytt ramverk för abstrakt textsammanfattning baserad på en sekvens-till-sekvens-orienterad koddecoder-modell utrustad med en djup återkommande generativ dekoder (DRGN). Latent struktur information underförstått i målsammanfattningar är inlärd baserat på en återkommande latent slumpmässig modell för att förbättra summering kvalitet. Neural variationsinferens används för att ta itu med den intracterbara bakre inferensen för de återkommande latenta variablerna. Abstraktiva sammanfattningar genereras utifrån både de generativa latenta variablerna och de diskriminativa deterministiska tillstånden. Omfattande experiment på vissa referensdatauppsättningar på olika språk visar att DRGN uppnår förbättringar jämfört med de senaste metoderna.
I REF föreslogs en djup återkommande generativ dekoder för att förbättra modelleringsförmågan hos latenta strukturer i sammanfattningarna av målen.
1,508,909
Deep Recurrent Generative Decoder for Abstractive Text Summarization
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
14,685
Avlastning av mobilräkning (MECO) avlastar intensiv mobil beräkning till moln belägna vid kanterna på cellulära nätverk. MECO är därmed tänkt som en lovande teknik för att förlänga batteriets livslängd och förbättra mobilernas beräkningskapacitet. I detta dokument studerar vi resursallokering för ett fleranvändar-MECO-system baserat på tidsdelningsmultipel access (TDMA) och ortogonal frekvensdivision multiple access (OFDMA). För det första, för TDMA MECO-systemet med oändlig eller ändlig molnberäkningskapacitet, är den optimala resurstilldelningen formulerad som ett konvext optimeringsproblem för att minimera den viktade summan mobil energiförbrukning under begränsningen på beräkning latency. Den optimala politiken har visat sig ha en tröskelbaserad struktur med avseende på en härledd avlastningsprioriterad funktion, som ger användarna prioritet beroende på deras kanalvinster och lokala energiförbrukning. Till följd av detta utför användare med prioriteringar över och under ett visst tröskelvärde fullständig respektive minimal avlastning. För molnet med ändlig kapacitet föreslås dessutom en suboptimal resursallokeringsalgoritm för att minska beräknings komplexiteten för beräkning av tröskelvärdet. Därefter anser vi att ODDMA MECO-systemet, för vilket den optimala resurstilldelningen formuleras som ett blandat integer-problem. För att lösa detta utmanande problem och karakterisera dess policystruktur föreslås en suboptimal algoritm med låg komplexitet genom att ODDMA-problemet omvandlas till dess TDMA-motsvarighet. Motsvarande resursfördelning erhålls genom att definiera en genomsnittlig avlastningsprioriterad funktion och visas ha nära optimal prestanda vid simulering.
I REF utformade författaren en resursfördelningsmekanism för ett fleranvändarsystem baserat på tidsdelningsmultipelåtkomst (TDMA) och ortogonal frekvensdelningsmultipelåtkomst (OFDMA) i ett scenario där uppgifter kan delas upp.
14,764,353
Energy-Efficient Resource Allocation for Mobile-Edge Computation Offloading
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
14,686
Abstract-Scientific analyser brukar komponera flera en-process program till ett dataflöde. En end-to-end dataflöde av en process program är känd som en många-task ansökan. Vanligtvis används HPC-verktyg för att parallellisera dessa analyser. I detta arbete undersöker vi ett alternativt tillvägagångssätt som använder Apache Spark-en modern plattform för dataintensiva datorer-att parallellisera många-task applikationer. Vi implementerar Kira, en flexibel och distribuerad astronomi bildbehandling verktygslåda, och dess Source Extractor (Kira SE) ansökan. Med Kira SE som fallstudie undersöker vi programmeringsflexibilitet, dataflödesrikedom, schemaläggningskapacitet och prestanda hos Apache Spark som körs på Amazon EC2-molnet. Genom att utnyttja datalokalitet, Kira SE uppnår en 4,1× speedup över ett likvärdigt C-program när man analyserar en 1TB dataset med 512 kärnor på Amazon EC2 molnet. Dessutom Kira SE på Amazon EC2 molnet uppnår en 1,8× speedup över C-programmet på NERSC Edison superdator. En 128-kärnig Amazon EC2 moln driftsättning av Kira SE med hjälp av Spark Streaming kan uppnå en andra-skal latency med en ihållande genomströmning på 800 MB/s. Vår erfarenhet med Kira visar att dataintensiva datorplattformar som Apache Spark är ett performant alternativ för många vetenskapliga tillämpningar.
Till exempel Kira REF är en distribuerad astronomi bildbehandling verktygslåda på toppen av Spark.
667,519
Kira: Processing Astronomy Imagery Using Big Data Technology
{'venue': None, 'journal': 'IEEE Transactions on Big Data', 'mag_field_of_study': ['Computer Science']}
14,687
Detta dokument undersöker användningen av djup förstärkning lärande (DRL) i utformningen av en "universal" MAC-protokoll som kallas Deep-reforcement Inlärning Multiple Access (DLMA). Konstruktionsramen är delvis inspirerad av visionen av DARPA SC2, en treårig tävling där konkurrenterna ska komma med en ren design som "bästa dela spektrum med alla nätverk, i alla miljöer, utan förkunskaper, utnyttja maskininlärningsteknik". Även om omfattningen av DARPA SC2 är bred och innebär omdesign av PHY, MAC och Network lager, är detta papper fokus smalare och endast omfattar MAC design. I synnerhet anser vi att problemet med att dela ankomst- och avgångstider mellan flera tidssloterade nätverk som antar olika MAC-protokoll. Ett av MAC-protokollen är DLMA. De andra två är TDMA och ALOHA. DLMA:s DRL-agenter vet inte att de två andra MAC-protokollen är TDMA och ALOHA. Ändå, genom en rad observationer av miljön, sina egna åtgärder, och belöningarna - i enlighet med DRL algoritmic ram - en DRL agent kan lära sig den optimala MAC-strategin för harmonisk samexistens med TDMA och ALOHA noder. I synnerhet, användningen av neurala nätverk i DRL (i motsats till traditionell förstärkning lärande) möjliggör snabb konvergens till optimala lösningar och robusthet mot perturbation i hyper-parameter inställningar, två väsentliga egenskaper för praktisk spridning av DLMA i verkliga trådlösa nätverk.
I vårt tidigare arbete REF, utvecklade vi djup förstärkning lärande flera åtkomst (DLMA) protokoll för heterogena nätverk utan bäraranalys.
8,683,793
Deep-Reinforcement Learning Multiple Access for Heterogeneous Wireless Networks
{'venue': '2018 IEEE International Conference on Communications (ICC)', 'journal': '2018 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Computer Science']}
14,688
Abstrakt. I detta dokument granskas integritetsinställningar i sociala nätverkswebbplatser (SNS) och deras standardtillstånd ur rättslig synvinkel. Analysen kommer att genomföras på exemplet Facebook som en av de mest populära - och kontroversiella-SNS och en av de mest aktiva leverantörerna ständigt ändra sina integritetsinställningar. Dokumentet kommer först att presentera begreppet integritetsinställningar och förklara hur de kan bidra till att skydda användarens integritet. Vidare kommer detta dokument att diskutera de allmänna farhågor som uttryckts av användare och dataskyddsmyndigheter över hela världen när det gäller de ändringar av Facebooks integritetsinställningar som infördes i februari 2010. Fokus kommer att läggas på genomförandet av rättviseprincipen i SNS. Denna princip innebär att en person inte pressas att lämna sina uppgifter till en registeransvarig och att behandlingen av personuppgifter däremot är öppen för den registrerade.
En juridisk analys av sekretessinställningar tillhandahålls av REF.
17,473,055
Privacy Settings in Social Networking Sites: Is It Fair?
{'venue': 'PrimeLife', 'journal': None, 'mag_field_of_study': ['Political Science', 'Computer Science']}
14,689
Nyligen, efterfrågan på datacenter databehandling har ökat, ökar den totala energiavtryck av datacenter över hela världen. Datacentralerna består vanligtvis av tre delsystem: IT-utrustningen tillhandahåller tjänster till kunderna, energiinfrastrukturen stöder IT- och kylutrustningen och kylinfrastrukturen avlägsnar värme som genereras av dessa delsystem. Detta arbete presenterar en ny metod för att modellera energiflödena i ett datacenter och optimera dess drift. Traditionellt har begränsningar på utbudssidan såsom tillgång till energi eller kylning behandlats oberoende av hanteringen av IT-belastning. Detta arbete minskar elkostnader och miljöpåverkan med hjälp av en helhetssyn som integrerar förnybar försörjning, dynamisk prissättning och kylförsörjning inklusive kylaggregat och utomhusluftkylning, med IT-arbetsbelastningsplanering för att förbättra den övergripande hållbarheten i datacenterverksamheten. Vi förutspår först förnybar energi och IT-efterfrågan. Sedan använder vi dessa förutsägelser för att generera en IT-arbetsbörda management plan som schemalägger IT arbetsbelastning och allokerar IT-resurser inom ett datacenter beroende på tid varierande strömförsörjning och kylning effektivitet. Vi har implementerat och utvärderat vår strategi med hjälp av spår från verkliga datacenter och produktionssystem. Resultaten visar att vår strategi kan minska både de återkommande elkostnaderna och användningen av icke-förnybar energi med så mycket som 60 % jämfört med befintlig teknik, samtidigt som servicenivåavtalen fortfarande uppfylls.
Författarna till REF-modellen energiflöden i ett datacenter och optimera dess holistiska drift.
9,132,750
Renewable and cooling aware workload management for sustainable data centers
{'venue': "SIGMETRICS '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,690
Abstract-Många studier har visat att det är möjligt att känna igen människor på det sätt de går. Det finns dock ett antal kovariata faktorer som påverkar igenkännandet. Tiden mellan att fånga galleriet och sonden har rapporterats påverka igenkännandet mest. Hittills har ingen studie isolerat effekten av tiden, oberoende av andra kovariater. Här presenterar vi den första principiella studien som undersöker effekten av förfluten tid på gångigenkänning. Med hjälp av empiriska bevis visar vi för första gången att förfluten tid inte påverkar igenkänningen signifikant på kort och medellång sikt. Detta konstaterande utmanar den befintliga uppfattningen i litteraturen att tiden i hög grad påverkar gångigenkänningen. Vi använder befintliga Gait representationer på en ny datauppsättning fångas specifikt för denna studie. Genom att kontrollera de kläder som bärs av försökspersonerna och miljön, har en korrekt klassificeringsfrekvens (CCR) på 95% uppnåtts under den längsta tidsperiod som ännu inte övervägts för gång på den största någonsin timliga datauppsättningen. Våra resultat visar att gång kan användas som en tillförlitlig biometrisk över tid och på avstånd om vi kunde kontrollera alla andra faktorer som kläder, skor etc. Vi har också undersökt effekten av olika typer av kläder, variationer i hastighet och skor på igenkänningsprestandan. Syftet med dessa experiment är att ge en indikation på varför tidigare studier (som använder samma tekniker som denna studie) har uppnått betydligt lägre igenkänningsprestanda över tid. Våra experimentella resultat visar att kläder och andra kovariater har förväxlats med förfluten tid tidigare i litteraturen. Vi har visat att kläder drastiskt påverkar igenkänningsprestandan oavsett förfluten tid och betydligt mer än någon av de andra kovariater som vi har övervägt här.
Därför analyserade metoden i REF effekten av förfluten tid på gångigenkänningen i avsaknad av andra kovariater, inklusive klädvariationer, och drog slutsatsen att gång framgångsrikt uppfyller kriteriet för biometriska kännetecken för att på ett tillförlitligt sätt kunna identifiera en människa på avstånd över ett betydande tidsintervall.
17,503,046
The Effect of Time on Gait Recognition Performance
{'venue': 'IEEE Transactions on Information Forensics and Security', 'journal': 'IEEE Transactions on Information Forensics and Security', 'mag_field_of_study': ['Computer Science']}
14,691
Abstract-Random kolonnprovtagning är inte garanterad att ge data skisser som bevarar de underliggande strukturerna av data och får inte ta tillräckligt prov från mindre befolkade datakluster. Dessutom, adaptiv provtagning kan ofta ge exakt låg rang approximationer, men kan hamna i brist på att producera beskrivande data skisser, särskilt när klustercentra är linjärt beroende. Motiverad av detta, introducerar denna bokstav en ny randomiserad kolonn provtagningsverktyg dubbade rumsliga slumpmässig provtagning (SRS), där datapunkter provtas baserat på deras närhet till slumpmässigt utvalda punkter på enheten sfären. Den mest övertygande egenskapen hos SRS är att motsvarande sannolikhet för provtagning från ett givet datakluster är proportionell mot den yta som klustret upptar på enhetssfären, oberoende av klusterpopulationens storlek. Även om den är helt randomiserad, SRS visas tillhandahålla beskrivande och balanserade data representationer. Den föreslagna idén tar upp ett trängande behov inom datavetenskap och har potential att inspirera många nya tillvägagångssätt för analys av stordata.
I REF föreslog vi ett nytt dataprovtagningsverktyg, Dubbed Spatial Random Sampling (SRS).
12,670,439
Spatial Random Sampling: A Structure-Preserving Data Sketching Tool
{'venue': 'IEEE Signal Processing Letters', 'journal': 'IEEE Signal Processing Letters', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
14,692
Med tanke på en metrisk M = (V, d), en graf G = (V, E) är en t-spanner för M om varje par noder i V har en "kort" väg (dvs. av längd som mest t gånger deras faktiska avstånd) mellan dem i spannern. Dessutom har denna skiftnyckel en humlediameter som begränsas av D om varje sådan kort väg också använder i de flesta D-kanter. Vi anser att problemet med att bygga sparse (1 + ε)-spanner med liten humlediameter för mått med låg dubblering dimension. I detta papper, visar vi att med tanke på varje metrisk med konstant dubblering dimension k, och alla 0 < ε < 1, kan man hitta en (1 + ε)-spanner för metrisken med nästan linjärt antal kanter (dvs. endast O(n log * n + nε −O(k) ) kanter) och en konstant humlediameter, och även en (1 + ε)-spanner med linjärt antal kanter (dvs. endast nε kanter) som uppnår en humlediameter som växer som den funktionella inversen av Ackermanns funktion. Dessutom bevisar vi att sådana avvägningar mellan antalet kanter och humlediametern är asymptotiskt optimala.
Täta nedre gränser på humlediametern av Euclidean spännen med ett visst antal kanter har nyligen fastställts av Chan och Gupta REF.
1,062,511
Small hop-diameter sparse spanners for doubling metrics
{'venue': "SODA '06", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
14,693
Vi anser att problemet med dimmig community upptäckt i nätverk, som kompletterar och utvidgar begreppet överlappande samhällsstruktur. Vårt tillvägagångssätt gör att varje vertex av grafen att tillhöra flera samhällen på samma gång, bestäms av exakt numerisk medlem grader, även i närvaro av osäkerhet i de data som analyseras. Vi skapade en algoritm för att bestämma de optimala medlemsgraderna med avseende på en given målfunktion. Baserat på medlemskap grader, vi införa en ny åtgärd som kan identifiera avvikande hörn som inte tillhör någon av de samhällen, bro hörn som tillhör betydligt mer än en enda gemenskap, och regelbundna hörn som i grunden begränsar deras interaktioner inom deras eget samhälle, samtidigt som kunna kvantifiera centraliteten i en vertex med avseende på dess dominerande gemenskap. Metoden kan också användas för förutsägelse vid osäkerhet i det analyserade datasetet. Antalet samhällen kan ges i förväg, eller bestämmas av algoritmen själv med hjälp av en fuzzified variant av modularitetsfunktionen. Tekniken kan upptäcka den suddiga samhällsstrukturen i olika verkliga nätverk, inklusive, men inte begränsat till sociala nätverk, vetenskapliga samarbetsnätverk och kortikala nätverk med stort förtroende.
Nepusz m.fl. REF definierar en numerisk medlemsgrad och utvecklar en algoritm för att bestämma den optimala medlemsgraden som kan identifiera yttre hörn som inte tillhör någon av de samhällen, som kallas bro hörn, och kvantifiera centraliteten i en vertex med avseende på dess dominerande gemenskap.
8,776,009
Fuzzy communities and the concept of bridgeness in complex networks
{'venue': 'Phys Rev E, 77:016107, 2008', 'journal': None, 'mag_field_of_study': ['Physics', 'Mathematics', 'Medicine']}
14,694
Abstrakt. Låt S vara domänen för attraktion av en beräkningsbar och asymptotiskt stabil hyperbolisk jämviktspunkt för det icke-linjära systemet och = f (x). Vi visar att problemet med att bestämma S är outputalt olösligt. Vi presenterar också en övre gräns för graden av olöslighet i detta problem. Ett av de centrala studieobjekten i kontinuerliga dynamiska system är attraktionsområdet för en asymptotiskt stabil jämviktspunkt. Att bestämma detta område är ett av de viktigaste problemen i (Lyapunov) stabilitetsteorin. I slutet av 1960-talet var det en våg av teoretiska studier som analyserade egenskaper hos sådana domäner. Under de senaste åren har stora ansträngningar gjorts för att utveckla numeriska metoder för uppskattning av dessa domäner, vilket har resulterat i många numeriska algoritmer. Däremot finns det relativt lite teoretiskt arbete med att beräkna dessa områden. I själva verket är det ännu inte känt om domäner av attraktion av beräkningsbara system är beräkningsbara. I detta dokument visar vi att problemet med att fastställa attraktionsområden, trots att det finns olika lyckade numeriska uppskattningar, är olösligt att beräkna. Vi presenterar också en övre gräns av graden av olöslighet av problemet genom att visa att domänerna för attraktion av beräkningsbara system är rekursivt enumerable. På ett ungefär, en uppsättning är beräkningsbar om dess bild kan genereras av en dator med godtycklig precision. För verkliga beräkningar finns det flera modeller som inte är likvärdiga. [19]................................................................. BSS-modellen tillåter reella tal som indata och använder oändlig precision aritmetisk, medan bitmodellen fungerar på oändliga sekvenser av bitar och använder finit-precision aritmetik; det vill säga, "bit approximationer" till utdata beräknas med godtycklig precision om bra "bit approximationer" till indata är tillgängliga. Eftersom ändlig precision i allmänhet används i "praktisk beräkning", använder vi bitmodellen i detta papper. Associerad med bitmodellen är typ-två teori om effekt (TTE) [19]. Mottaget av redaktörerna den 11 juli 2008 och, i
Å andra sidan visas det i REF att bassänger för attraktion av hyperboliska diskbänkar kan vara icke-komputerbara för C-dynamiska system.
14,506,550
COMPUTATIONAL UNSOLVABILITY OF DOMAINS OF ATTRACTION OF NONLINEAR SYSTEMS
{'venue': 'Proceedings of the American Mathematical Society', 'journal': 'Proceedings of the American Mathematical Society', 'mag_field_of_study': ['Mathematics']}
14,695
Medan samarbetsfiltrering är den dominerande tekniken i personliga rekommendationer, modellerar den endast interaktioner mellan användare och föremål och kan inte ge konkreta skäl till en rekommendation. Samtidigt är den rika sidoinformationen kopplad till interaktion mellan användare (t.ex. användares demografi och objektattribut), som ger värdefulla bevis för att en rekommendation är lämplig för en användare, inte har utforskats fullt ut när det gäller att ge förklaringar. På den tekniska sidan ger inbäddade metoder, såsom Wide & Deep och neural factorization maskiner, toppmoderna rekommendationsprestanda. De fungerar dock som en svart låda, och de skäl som ligger till grund för en förutsägelse kan inte uttryckligen presenteras. Å andra sidan, trädbaserade metoder som beslut träd förutsäga genom att dra slutsatsen beslutsregler från data. Även om de kan förklaras, kan de inte generalisera till osynliga funktionsinteraktioner på så sätt misslyckas i samarbetsfiltrering program. I detta arbete föreslår vi en ny lösning som heter Tree-förstärkt Embedding Method som kombinerar styrkan hos inbäddade och trädbaserade modeller. Vi använder först en trädbaserad modell för att lära oss explicita beslutsregler (alias. korsa funktioner) från den rika sidan information. Nästa designar vi en inbäddad modell som kan innehålla explicita korsfunktioner och generalisera till osynliga korsfunktioner på användar-ID och objekt-ID. Kärnan i vår inbäddningsmetod är ett lätttolkat uppmärksamhetsnätverk, vilket gör rekommendationsprocessen helt transparent och begriplig. Vi utför experiment på två datauppsättningar av turistattraktion och restaurang rekommendationer, visar den överlägsna prestanda och förklarande av vår lösning. • Informationssystem → Recommender systems; KEYWORDS Förklarande rekommendation, Trädbaserad modell, Inbäddning-baserad modell, Neural uppmärksamhet Network * Xiangnan Han är motsvarande författare. Denna artikel publiceras under Creative Commons Attribution 4.0 International (CC BY 4.0) licens. Upphovsmännen förbehåller sig rätten att sprida arbetet på sina personliga webbplatser och företagswebbplatser med lämplig tilldelning.
Wang m.fl. fastställde den förklarande rekommendationen genom att samla styrkan i inbäddade och trädbaserade metoder REF.
4,538,305
TEM: Tree-enhanced Embedding Model for Explainable Recommendation
{'venue': 'WWW', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,697
I detta dokument föreslår vi en ny formalisering av problemet med induktiv logisk programmering (ILP) för en bättre hantering av undantag. Den är nu kodad i första ordningens posibilistisk logik. Detta gör att vi kan hantera undantag med hjälp av prioriterade regler och därmed ta lektioner från icke-monotoniska resonemang. I den klassiska första ordningens logik stämmer faktiskt inte de undantag från reglerna som utgör en hypotes att samla ihop och klassificera ett exempel i två olika klasser, även om man är den rätta. Den possibilistiska formaliseringen ger en sund kodning av icke-monotoniskt resonemang som klarar av regler med undantag och förhindrar att ett exempel klassificeras i mer än en klass. Fördelarna med vårt tillvägagångssätt när det gäller användningen av förteckningar över första ordningens beslut framhålls. Den possibilistiska logiska synen på ILP-problemet leder till ett optimeringsproblem på algoritmisk nivå. En algoritm baserad på simulerad glödgning som i en tur beräknar uppsättningen regler tillsammans med deras prioriterade nivåer föreslås. De rapporterade experimenten visar att algoritmen är konkurrenskraftig mot standard ILP-metoder på referensexempel.
I REF föreslås ett possibilistiskt induktivt logikprogrammeringssystem (ILP), som använder en variant av possibilistisk logik för inlärningsregler med undantag.
2,750,365
Introducing possibilistic logic in ILP for dealing with exceptions
{'venue': 'Artif. Intell.', 'journal': 'Artif. Intell.', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
14,698
Djupa neurala nätverk (DNN) har uppnått enorma praktiska framgångar under de senaste åren. Dess teoretiska egenskaper (särskilt generaliseringsförmåga) är dock ännu inte särskilt tydliga, eftersom befintliga felgränser för neurala nätverk inte direkt kan användas för att förklara de statistiska beteendena hos praktiskt taget antagna DNN-modeller (som är flera klasser i sin natur och kan innehålla konvolutionella skikt). För att ta itu med utmaningen tar vi fram en ny marginal som är begränsad till DNN i detta dokument, där det förväntade 0-1-felet i en DNN-modell är övre gräns för dess empiriska marginalfel plus en Rademacher Genomsnittligt baserad kapacitetsterm. Denna nya gräns är mycket allmän och överensstämmer med de empiriska beteenden av DNN-modeller som observerats i våra experiment. Enligt det nya bundet kan minimering av det empiriska marginalfelet effektivt förbättra DNN:s testresultat. Vi föreslår därför stora marginaler för DNN-algoritmer, som inför marginalpåföljdsvillkor för DNN:s förlust av korsentropi, för att minska marginalfelet under utbildningsprocessen. Experimentella resultat visar att de föreslagna algoritmerna kan uppnå betydligt mindre empiriska marginalfel samt bättre testprestanda än standardalgoritmen DNN.
REF uppger att cross-entropy förlust inte har marginal-maximering egenskaper, och lägga till villkor till cross-entropy förlust för att uppmuntra stora marginallösningar.
3,771,206
Large Margin Deep Neural Networks: Theory and Algorithms
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
14,699
Vi anser att de rationella versionerna av två av de klassiska problemen i grunden av kryptografi: hemlig delning och multipart beräkning, föreslås av Halpern och Teague (STOC 2004). Vårt mål är att utforma spel och rättvisa strategier som uppmuntrar rationella deltagare att utbyta information om sina insatser till ömsesidig nytta, när det enda sättet att kommunicera är en sändningskanal. Vi visar att protokoll för ovanstående informationsutbyte uppgifter, där spelarnas värden kommer från en avgränsad domän, inte kan uppfylla några av de mest önskvärda egenskaper. Däremot tillhandahåller vi ett rationellt hemligt delningssystem med samtidig sändningskanal där aktier tas från en obegränsad domän, men har ändliga (och polynomiska storlek) förväntningar. Tidigare system (främst kryptografiska) har krävt beräkningsantaganden, vilket gör dem inexakt och mottagliga för bakåt induktion, eller använt starkare kommunikationskanaler. Vår plan är icke-kryptografisk, immun mot bakåt induktion, och uppfyller en starkare rationalitet koncept (begränsa Nash jämvikt). Vi visar att vår lösning också kan användas för att bygga en ε-Nash jämvikt hemliga delningssystem för fallet med en icke-samtidig sändningskanal.
I ett tidigare dokument REF har vi framlagt ett icke-kryptografiskt protokoll för rationell hemlig delning som är immun mot bakåt induktion.
14,498,999
Games for exchanging information
{'venue': "STOC '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,700
Vi presenterar en algoritm för att isolera rötterna av en godtycklig komplex polynom p som också fungerar för polynom med flera rötter förutsatt att antalet k av distinkta rötter ges som en del av inmatningen. Den ger k pairwise isär diskar var och en innehåller en av de distinkta rötterna av p, och dess mångfald. Algoritmen använder ungefärlig faktorisering som subrutin. Dessutom tillämpar vi den nya rotisoleringsalgoritmen för en ny algoritm för att beräkna topologin för en verklig planar algebraisk kurva specificerad som nolluppsättningen av ett bivariat heltal polynom och för att isolera de verkliga lösningarna i ett bivariat polynomsystem. För inmatningspolynom av grad n och bitsize τ, förbättrar vi den för närvarande bästa körtiden från Õ(n 9 τ + n 8 τ 2 ) (deterministiska) till Õ(n 6 + n 5 τ) (randomized) för topologi beräkning och från Õ(n 8 + n 7 τ) (deterministiska) till Õ(n 6 + n 5 τ) (randomized) för att lösa bivariatsystem.
Pans faktoriseringsalgoritm är också en viktig subrutin i en nyligen genomförd algoritm REF för att isolera alla rötter av ett komplext polynom i den tid som är bundet av vårt huvudteoret.
632,520
From Approximate Factorization to Root Isolation with Application to Cylindrical Algebraic Decomposition
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
14,701
Under de senaste åren, förtroende-medveten routing protokoll spelar en viktig roll för säkerheten för trådlösa sensornätverk (WSNs), som är en av de mest populära nätverksteknik för smart stad. Det återstår dock att lösa flera nyckelfrågor i de konventionella protokollen om förtroendeingivande routing, t.ex. kompatibiliteten mellan förtroendemått och QoS-mått och kontrollen av omkostnader som skapas genom förfarandet för förtroendeutvärdering. I detta dokument föreslås en förtroendemedveten säker routing ram (TSRF) med egenskaper lätt och hög förmåga att motstå olika attacker. För att uppfylla säkerhetskraven för routing protokoll i WSNs, analyserar vi först funktioner i vanliga attacker på betrodda routing system. Därefter föreslås särskilda förtroendeberäkningar och system för att skapa förtroende baserat på analysresultat. Slutligen använder vår design kombinationen av trust metrisk och QoS-mått som routingmått för att presentera en optimerad routingalgoritm. Med hjälp av simuleringar visar vi att TSRF kan uppnå både avsedd säkerhet och hög effektivitet som lämpar sig för WSN-baserade nätverk.
Junqi Duan m.fl. REF tillhandahåller en ram för förtroendemedveten säker routing.
15,632,034
TSRF: A Trust-Aware Secure Routing Framework in Wireless Sensor Networks
{'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']}
14,702
Inom området energiförvaltning på klusternivå har man under de senaste åren ägnat stor uppmärksamhet åt forskning. En klass av tekniker för att minska energiförbrukningen i kluster är att selektivt driva ner noder under perioder med lågt utnyttjande för att öka energieffektiviteten. Man kan tänka sig ett antal sätt att selektivt driva ner noder, var och en med varierande inverkan på arbetsbelastningens svarstid och den totala energiförbrukningen. Eftersom ramen MapReduce håller på att bli "vanlig", är fokus i detta dokument att utveckla en ram för att systematiskt överväga olika MapReduce node down strategier, och deras inverkan på den totala energiförbrukningen och arbetsbelastning responstid. Vi undersöker noga två extrema tekniker som kan användas inom denna ram. Den första är baserad på en nyligen föreslagen teknik som kallas "Covering Set" (CS) som håller bara en liten del av noderna igång under perioder av lågt utnyttjande. Den andra ytterligheten är en teknik som vi föreslår i detta dokument, som kallas All-In-strategin (AIS). AIS använder alla noder i klustret för att köra en arbetsbörda och sedan driver ner hela klustret. Med hjälp av både faktisk utvärdering och analytisk modellering tar vi fram skillnaderna mellan dessa två extrema tekniker och visar att AIS ofta är rätt energibesparingsstrategi.
AIS (All-in Strategy) Ref är ett annat tillvägagångssätt.
10,216,979
Energy Management for MapReduce Clusters
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
14,703
Abstrakt. Nuvarande metoder för informationssökning (IR) fångar inte formellt den uttryckliga innebörden av en sökordsfråga utan ger ett bekvämt sätt för användaren att specificera informationsbehov på grundval av nyckelord. Ontologi-baserade metoder möjliggör sofistikerad semantisk sökning men införa en fråga syntax svårare att hantera. I detta dokument presenterar vi en metod för att översätta sökordsfrågor till DL konjunktiva frågor med hjälp av bakgrundskunskap som finns i ontologier. Vi presenterar ett genomförande som visar att denna tolkning av nyckelord sedan kan användas för både utforskande av påstådd kunskap och för en semantikbaserad deklarativ frågesvarsprocess. Vi presenterar också en utvärdering av vårt system och en diskussion om begränsningarna i strategin med avseende på våra underliggande antaganden som direkt pekar på frågor för framtida arbete.
REF införde ett tillvägagångssätt för att översätta sökordsförfrågningar till DL (Description Logics) konjunktiva frågor och använde ontologier för att beskriva användarens bakgrundskunskap.
13,010,460
Ontology-based Interpretation of Keywords for Semantic Search
{'venue': 'ISWC/ASWC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,704
Abstract-convolutional nätverk är kraftfulla visuella modeller som ger hierarkier av funktioner. Vi visar att convolutional nätverk av sig själva, utbildade end-to-end, pixlar-till-pixel, förbättra på det tidigare bästa resultatet i semantiska segmentering. Vår nyckelinsikt är att bygga "fullständigt konvolutionella" nätverk som tar input av godtycklig storlek och producerar motsvarande storlek utdata med effektiv slutledning och lärande. Vi definierar och specificerar utrymmet för helt konvolutionella nätverk, förklarar deras tillämpning på rumsligt täta förutsägelser uppgifter, och ritar anslutningar till tidigare modeller. Vi anpassar dagens klassificeringsnätverk (AlexNet, VGG-nätet och GoogLeNet) till helt konvolutionella nätverk och överför deras inlärda representationer genom finjustering till segmenteringsuppgiften. Vi definierar sedan en skippa arkitektur som kombinerar semantisk information från ett djupt, grovt lager med utseende information från ett grunt, fint lager för att producera exakta och detaljerade segmenteringar. Våra helt konvolutionella nätverk uppnår förbättrad segmentering av PASCAL VOC (30 % relativ förbättring till 67,2 % genomsnittlig IE 2012), NYUDv2, SIFT Flow och PASCAL-Context, medan slutsatsen tar en tiondels sekund för en typisk bild.
Lång et al. REF integrerar utseende representation med semantisk information från ett grunt respektive ett djupt lager.
1,629,541
Fully Convolutional Networks for Semantic Segmentation
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
14,705
Segmentering av medicinska bilder är utmanande på grund av dålig bildkontrast och artefakter som resulterar i saknade eller diffusa organ / vävnader gränser. Följaktligen innebär denna uppgift att införliva så mycket tidigare information som möjligt (t.ex. struktur, form och plats för organ) i en enda ram. I detta papper presenterar vi en genetisk algoritm för att automatisera segmenteringen av prostatan på tvådimensionella skivor av bäcken datortomografi (CT) bilder. I detta tillvägagångssätt representeras segmenteringskurvan med hjälp av en nivåuppsättningsfunktion, som utvecklas med hjälp av en genetisk algoritm (GA). Form och textural priors härledd från manuellt segmenterade bilder används för att begränsa utvecklingen av segmenteringskurvan över på varandra följande generationer. Vi går igenom några av de befintliga medicinska bildsegmenteringstekniker. Vi jämför också resultaten av vår algoritm med resultaten från en enkel texturextraheringsalgoritm (lagarnas texturmätningar) samt med ett annat GA-baserat segmenteringsverktyg kallat GENIE. Våra preliminära tester på en liten population av segmenteringskonturer visar löfte genom att konvergera på prostataregionen. Vi förväntar oss att ytterligare förbättringar kan uppnås genom att integrera rumsliga relationer mellan anatomiska landmärken och utvidga metoden till tre dimensioner.
En genetisk algoritm för segmentering av medicinska bilder föreslogs av Ghosh et al. i REF................................................................................................
1,318,313
Segmentation of medical images using a genetic algorithm
{'venue': "GECCO '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,706
I detta dokument behandlas problemet med automatisk rekonstruktion av en 3D-relief från en linje som ritas ovanpå ett givet basobjekt. Återuppbyggnad är utmanande av fyra skäl - de glesa slagen, deras tvetydighet, deras stora antal och deras inbördes relationer. Vår strategi är att rekonstruera en modell från en komplex ritning som består av många inbördes relaterade drag. I stället för att betrakta det ömsesidiga beroendet som ett problem visar vi hur de kan utnyttjas för att automatiskt generera en bra första tolkning av linjedragningen. Sedan, med tanke på en bas och en tolkning, föreslår vi en algoritm för att rekonstruera en konsekvent yta. Styrkan i vårt tillvägagångssätt visas i rekonstruktionen av arkeologiska artefakter från ritningar. Dessa ritningar är mycket utmanande, eftersom konstnärer skapade mycket komplexa och detaljerade beskrivningar av artefakter oavsett eventuella överväganden om deras framtida användning för form rekonstruktion.
Kolomenkin m.fl. Ref syftar till att rekonstruera en modell från en komplex linjedragning som består av många sammanhängande linjer.
1,267,139
Reconstruction of relief objects from line drawings
{'venue': 'CVPR 2011', 'journal': 'CVPR 2011', 'mag_field_of_study': ['Computer Science']}
14,707
Sammanfattning { Vi studerar prestandan hos konvergenskontrollalgoritmer för att upprätthålla tidskonsistens av delade data i hårda realtidssystem. I vår modell består ett hårt realtidssystem av periodiska uppgifter som antingen är skrivbara, läsbara eller uppdaterade transaktioner. Transaktioner kan dela uppgifter. Dataobjekt är tidsmässigt inkonsekventa när deras ålder och spridning är större än de absoluta och relativa tröskelvärden som tillåts av applikationen. Realtidstransaktioner måste avläsa tidssammanhängande data för att ge korrekta resultat. Baserat på denna modell har vi utvärderat prestandan hos två välkända klasser av konvergensalgoritmer som hanterar multiversionsdata: den tvåfaslåsning och de optimistiska algoritmerna, samt de hastighetsmonotoniska och tidigaste-deadline-rest schemaläggningsalgoritmerna. Eekterna av att använda de prioriterade arvs- och stackbaserade protokollen med låsbaserad konvergenskontroll studeras också.
I den modell som införs i REF består ett realtidssystem av periodiska uppgifter som antingen är läsbara, skrivbara eller uppdaterade (läsa-skriva) transaktioner.
3,278,410
Maintaining Temporal Consistency: Pessimistic vs. Optimistic Concurrency Control
{'venue': 'IEEE Trans. Knowl. Data Eng.', 'journal': 'IEEE Trans. Knowl. Data Eng.', 'mag_field_of_study': ['Computer Science']}
14,708
Opinion mining är en ny subdisciplin av beräkningslingvistik som inte handlar om ämnet ett dokument handlar om, men med den åsikt som det uttrycker. För att underlätta framtagandet av yttranden ur texten har man i det senaste arbetet tagit itu med frågan om att fastställa inriktningen på de "subjektiva" termerna i texten, dvs. avgöra om en term som innehåller ett yttrande har en positiv eller negativ innebörd. Detta anses vara av avgörande betydelse för att identifiera dokumentens inriktning, dvs. avgöra om en handling uttrycker ett positivt eller negativt yttrande om dess ämne. Vi hävdar att den enkla bestämningen av termernas inriktning inte är ett realistiskt problem, eftersom det utgår från det icke-realistiska antagandet att vi redan vet om en term är subjektiv eller inte; detta skulle innebära att en språklig resurs som markerar termer som "subjektiva" eller "objektiva" är tillgänglig, vilket vanligtvis inte är fallet. I detta dokument står vi inför uppgiften att avgöra om en viss term har en positiv konnotation, eller en negativ konnotation, eller inte alls har någon subjektiv konnotation; detta problem underbygger således problemet med att bestämma subjektivitet och problemet med att bestämma orientering. Vi tar itu med detta problem genom att testa tre olika varianter av en halvövervakad metod som tidigare föreslagits för orienteringsdetektering. Våra resultat visar att avgörande subjektivitet och orientering är ett mycket svårare problem än att enbart bestämma orientering.
REF tar också upp detta problem som testar tre olika varianter av en halvövervakad metod och klassificerar inputen till positiv, negativ eller neutral.
17,768,425
Determining Term Subjectivity And Term Orientation For Opinion Mining
{'venue': 'Conference Of The European Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,709
Multiview videos plus djup (MVD) är en populär 3D video representation där pixel djup information utnyttjas för att generera ytterligare vyer för att ge 3D-upplevelse. Kvalitetsbedömning av MVD-data är av största vikt eftersom de senaste forskningsresultaten visar att befintliga 2D-kvalitetsmått inte är lämpliga för MVD. Detta dokument fokuserar på djupkvalitetsbedömning och presenterar en ny algoritm för att uppskatta den förvrängning i djupvideor som induceras av kompression. Den föreslagna algoritmen är noreferens och kräver ingen tidigare utbildning eller modellering. Den föreslagna metoden baseras enbart på den statistiska analysen av de kompressionskänsliga pixlarna i djupbilder. De experimentella resultaten utarbetades på en standard MVD dataset visar att den föreslagna algoritmen uppvisar en mycket hög korrelation med konventionella fullreferensmått. Index Termer -Djupth bildkvalitet metrisk, Free-viewpoint TV, Djup bildbaserad rendering, Kvalitetsbedömning
Blinddjupskvalitetsmätare (BDQM) REF är den enda mätmetod som är särskilt utformad för att uppskatta kvaliteten på djupkartorna.
9,991,997
Blind depth quality assessment using histogram shape analysis
{'venue': '2015 3DTV-Conference: The True Vision - Capture, Transmission and Display of 3D Video (3DTV-CON)', 'journal': '2015 3DTV-Conference: The True Vision - Capture, Transmission and Display of 3D Video (3DTV-CON)', 'mag_field_of_study': ['Computer Science']}
14,710
Att hitta täta subgrafer i stora grafer är en viktig primitiv i en mängd olika tillämpningar i verkligheten som omfattar analys av sociala nätverk, händelsedetektering, biologi och finansiering. I de flesta sådana tillämpningar syftar man vanligtvis till att hitta flera (eventuellt överlappande) täta subgrafer som kan motsvara samhällen i sociala nätverk eller intressanta händelser. Medan en stor mängd arbete ägnas åt att hitta en enda tätaste subgraf, kanske förvånande, har problemet med att hitta flera täta subgrafer med begränsad överlappning inte studerats på ett principfast sätt, så vitt vi vet. I detta arbete definierar och studerar vi en naturlig generalisering av det tätaste subgraf problemet, där det huvudsakliga målet är att hitta som mest k subgrafer med maximal total aggregattäthet, samtidigt som den uppfyller en övre gräns på den parvisa Jaccard koefficienten mellan uppsättningarna av noder i subgraferna. Efter att ha visat att ett sådant problem är NP-Hard, vi utformar en effektiv algoritm som kommer med bevisbara garantier i vissa fall av intresse, samt en effektiv praktisk heuristic. Vår omfattande utvärdering av stora verkliga grafer bekräftar effektiviteten och effektiviteten hos våra algoritmer.
I REF studerar författarna problemet med att hitta flera subgrafer med maximal total densitet och begränsad överlappning.
12,150,970
Finding Subgraphs with Maximum Total Density and Limited Overlap
{'venue': "WSDM '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,711
Nya framsteg i modellkompression har gett förfaranden för att komprimera stora neurala nätverk till en bråkdel av deras ursprungliga storlek samtidigt behålla de flesta om inte alla av deras noggrannhet. Alla dessa tillvägagångssätt bygger dock på tillgång till den ursprungliga utbildningssetet, vilket kanske inte alltid är möjligt om det nätverk som ska komprimeras utbildades på en mycket stor dataset, eller på en dataset vars frisläppande medför integritets- eller säkerhetsproblem, vilket kan vara fallet för biometriska uppgifter. Vi presenterar en metod för datafri kunskapsdestillering, som kan komprimera djupa neurala nätverk som är utbildade på storskaliga dataset till en bråkdel av deras storlek och endast utnyttja några extra metadata som ska tillhandahållas med en förtränad modell release. Vi utforskar också olika typer av metadata som kan användas med vår metod, och diskuterar kompromisser som är involverade i att använda var och en av dem.
REF använde några extra metadata för att lära sig mindre djupa neurala nätverk.
1,844,680
Data-Free Knowledge Distillation for Deep Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
14,712
Vi introducerar en ny språklig representationsmodell kallad BERT, som står för dubbelriktade Encoder Representationer från Transformers. Till skillnad från senaste språk representation modeller (Peters et al., 2018; Radford et al., 2018), BERT är utformad för att pre-training djupa dubbelriktade representationer genom att gemensamt konditionering på både vänster och höger sammanhang i alla lager. Som ett resultat, kan de förtränade BERT representationer finjusteras med bara ett ytterligare utdatalager för att skapa state-of-theart modeller för ett brett spektrum av uppgifter, såsom frågesvar och språk inference, utan betydande uppgiftsspecifika arkitekturändringar. BERT är konceptuellt enkelt och empiriskt kraftfullt. Det får nya state-of-the-art resultat på elva naturliga språk bearbetningsuppgifter, inklusive att driva GLUE-riktmärket till 80,4 % (7,6 % absolut förbättring), MultiNLI noggrannhet till 86,7 % (5,6 % absolut förbättring) och SQuAD v1.1 frågesvar Test F1 till 93,2 (1,5 absolut förbättring), presterande mänskliga prestanda med 2,0.
Dessutom föreslogs BERT (Bidirective Encoder Representations from Transformers) REF, som kan användas för att förstå djupa kontextuella dubbelriktade språkrepresentationer.
52,967,399
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
14,713
Multimodala sensorer i hälso- och sjukvårdstillämpningar har forskats i allt högre grad eftersom det underlättar automatisk och omfattande övervakning av mänskliga beteenden, högintensiv sporthantering, uppskattning av energikostnader och postural detektion. Nya studier har visat vikten av multisensorfusion för att uppnå robusthet, hög prestanda generalisering, ge mångfald och ta itu med utmanande problem som kanske är svåra med enstaka sensorvärden. Syftet med denna studie är att föreslå ett innovativt ramverk för multisensorfusion för att förbättra detektionen av mänsklig aktivitet och minska graden av feligenkänning. Studien föreslår en multiview ensemblealgoritm för att integrera förutsagda värden för olika rörelsesensorer. I detta syfte användes beräkningseffektiva klassificeringsalgoritmer som beslutsträd, logistisk regression och k-Nearest Neighbors för att implementera olika, flexibla och dynamiska system för upptäckt av mänsklig aktivitet. För att ge en kompakt funktionsvektorrepresentation studerade vi hybridbioinspirerad evolutionär sökalgoritm och korrelationsbaserad funktionsvalsmetod och utvärdera deras påverkan på extraherade funktionsvektorer från individuella sensormodaliteter. Dessutom använde vi Synthetic Over-sampling Minoritet Techniques (SMOTE) algoritm för att minska effekten av klassobalans och förbättra resultat. Med ovanstående metoder ger detta dokument en enhetlig ram för att lösa stora utmaningar när det gäller identifiering av mänsklig verksamhet. De resultat som erhållits med hjälp av två allmänt tillgängliga datauppsättningar visade en betydande förbättring jämfört med referensmetoderna när det gäller att upptäcka specifika aktivitetsdetaljer och minska felfrekvensen. Resultat från vår utvärdering visade 3% till 24% förbättring av noggrannhet, recall, precision, F-mätning och detektionsförmåga (AUC) jämfört med enstaka sensorer och fusion på funktionsnivå. Fördelarna med den föreslagna multisensorfusionen är förmågan att använda distinkta egenskaper hos individuella sensor- och flera klassificeringssystem för att förbättra igenkänningsnoggrannheten. Dessutom föreslås i studien en lovande potential för hybrida funktionsval, mångfaldsbaserade system med flera klassificeringssystem för att förbättra mobilt och bärbart sensorbaserat system för upptäckt av mänsklig aktivitet och hälsoövervakning.
Författarna i REF föreslog ett innovativt multisensorfusionssystem som förbättrar prestandan hos detektion av mänsklig aktivitet med hjälp av en multivyensemblemetod för att integrera förväntade värden för olika rörelsesensorer med hjälp av olika klassificeringsalgoritmer, såsom logistisk regression, K-Nearest Neighbors (KNN) och Decision Tree (DT).
201,967,170
Multi-sensor fusion based on multiple classifier systems for human activity identification
{'venue': 'Human-centric Computing and Information Sciences', 'journal': 'Human-centric Computing and Information Sciences', 'mag_field_of_study': ['Computer Science']}
14,714
ABSTRACT Med ökad tillit till sakernas internet (IoT) enheter och tjänster, förmågan att upptäcka intrång och skadliga aktiviteter inom IoT-nätverk är avgörande för motståndskraften hos nätverksinfrastrukturen. I detta dokument presenterar vi en ny modell för intrångsdetektering baserad på tvålagers dimensionsreduktion och tvåskikts klassificeringsmodul, utformad för att upptäcka skadliga aktiviteter som User to Root (U2R) och Remote to Local (R2L) attacker. Den föreslagna modellen använder komponentanalys och linjär diskriminerande analys av dimensionsreduktionsmodulen för att dela högdimensionella dataset till en lägre med mindre egenskaper. Vi tillämpar sedan en två-gradig klassificering modul som använder NaI €ve Bayes och visshet faktor version av K-Nearest Grann för att identifiera misstänkta beteenden. Experimentresultaten med NSL-KDD dataset visar att vår modell överträffar tidigare modeller utformade för att upptäcka U2R- och R2L-attacker.
En tvåskiktsdimensionsreduktion och tvåskiktsklassificering (TDTC) modell för IDS presenteras i REF.
44,175,270
A Two-Layer Dimension Reduction and Two-Tier Classification Model for Anomaly-Based Intrusion Detection in IoT Backbone Networks
{'venue': 'IEEE Transactions on Emerging Topics in Computing', 'journal': 'IEEE Transactions on Emerging Topics in Computing', 'mag_field_of_study': ['Computer Science']}
14,715
ABSTRACT Motion Planning är ett grundläggande forskningsområde inom robotik. Provtagningsbaserade metoder erbjuder en effektiv lösning för vad som annars är ett ganska utmanande dilemma när det gäller vägplanering. Följaktligen har dessa metoder utökats längre bort från grundläggande robotplanering till ytterligare svåra scenarier och olika tillämpningar. En omfattande kartläggning av det växande arbetet inom provtagningsbaserad planering ges här. Simuleringar utförs för att utvärdera några av de föreslagna planerarna och belysa några av de genomförandedetaljer som ofta lämnas ospecificerade. Tonvikten läggs på samtida forskningsinriktningar inom detta område. Vi tar upp planerare som tar itu med aktuella frågor inom robotteknik. Till exempel diskuteras verklig kinodynamisk planering, optimal planering, omplanering i dynamiska miljöer och planering under osäkerhet. Syftet med detta dokument är att kartlägga den senaste tekniken i rörelseplanering och att bedöma utvalda planerare, granska genomförandedetaljer och framför allt belysa de aktuella utmaningarna i rörelseplanering och de lovande tillvägagångssätt som potentiellt kommer att lösa dessa problem.
En detaljerad översyn av urvalsbaserad planering ges i REF.
36,510,460
Sampling-Based Robot Motion Planning: A Review
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
14,716
Bildbehandling pipelines kombinerar utmaningarna med schablonberäkningar och stream program. De består av stora grafer av olika stencilstadier, komplexa reduceringar och stadier med globala eller databeroende åtkomstmönster. På grund av deras komplexa struktur, prestandaskillnaden mellan en naiv implementering av en pipeline och en optimerad en är ofta en storleksordning. Effektiva implementeringar kräver optimering av både parallellism och lokalitet, men på grund av stencilernas natur finns det en grundläggande spänning mellan parallellism, lokalitet och införande av redundant recomputation av delade värden. Vi presenterar en systematisk modell av tradeoff utrymme grundläggande till schablon pipelines, en schema representation som beskriver konkreta punkter i detta utrymme för varje steg i en bildbehandling pipeline, och en optimerande kompilator för Halide bildbehandlingsspråk som syntetiserar högpresterande implementationer från en Halide algoritm och ett schema. Genom att kombinera denna kompilator med stokastisk sökning över scheman möjliggörs terse, kompatibla program för att uppnå state-of-the-art prestanda på ett brett spektrum av verkliga bildbehandling pipelines, och över olika maskinvaruarkitekturer, inklusive multicores med SIMD, och heterogen CPU+GPU exekvering. Från enkla Halide program skrivna på några timmar, visar vi prestanda upp till 5× snabbare än handjusterade C, inneboende, och CUDA implementationer optimeras av experter över veckor eller månader, för bildbehandling program utom räckhåll för tidigare automatiska kompilatorer.
Halide REF är ett områdesspecifikt tillvägagångssätt som är inriktat på bildbehandling av rörledningar.
54,165,200
Halide: a language and compiler for optimizing parallelism, locality, and recomputation in image processing pipelines
{'venue': 'PLDI', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,717
Vi föreslår en enkel tvåstegsmetod för att påskynda konvolutionslager inom stora konvolutionella neurala nätverk baserat på tensor sönderdelning och diskriminativ finjustering. Med tanke på ett lager, använder vi icke-linjära minst kvadrater för att beräkna en låg-rank CP-dekomposition av 4D-konvolution kärna tensor till en summa av ett litet antal rank-en tensorer. I det andra steget används denna nedbrytning för att ersätta det ursprungliga konvolutionslagret med en sekvens av fyra konvolutionslager med små kärnor. Efter en sådan ersättning är hela nätverket finjusterat på träningsdata med hjälp av standard backpropagation process. Vi utvärderar detta tillvägagångssätt på två CNNs och visar att det ger större CPU hastigheter på bekostnad av lägre noggrannhet sjunker jämfört med tidigare metoder. För 36-klass teckenklassificering CNN, vår strategi får en 8,5x CPU hastighetsökning av hela nätverket med endast mindre noggrannhet nedgång (1% från 91% till 90%). För den vanliga ImageNet arkitekturen (AlexNet), påskyndar inflygningen upp det andra konvolutionsskiktet med en faktor på 4x till priset av 1% ökning av den totala top-5 klassificeringsfel.
CP-dekomposition av filter tensorer föreslås i REF.
15,002,492
Speeding-up Convolutional Neural Networks Using Fine-tuned CP-Decomposition
{'venue': 'ICLR 2015', 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
14,718
Abstract-In distribuerade lagringssystem, lokalt reparerbara koder (LRC) introduceras för att realisera låg disk I/O och reparationskostnader. För att tolerera flera nodfel föreslås vidare LRC med (r, δ)-lokalitet. Eftersom heta data inte är ovanliga i ett distribuerat lagringssystem, både Zeh et al. och Kadhe m.fl. fokusera på LRCs med flera orter eller ojämlika orter (ML-LRCs) nyligen, som sade att orterna bland kodsymbolerna kan vara olika. ML-LRC är attraktiva och användbara för att minska reparationskostnaderna för heta data. I detta dokument generaliserar vi ML-LRC till (r, δ)-lokalitetsfallet av flera nodfel, och definierar en LRC med flera (ri, δi) i[s] orter (s ≥ 2), där r1 ≤ r2 ≤ · · · · ≤ rs och δ1 ≥ δ2 ≥ · · · · ≥ δs ≥ 2. Sådana koder säkerställer att vissa heta data kan repareras snabbare och har bättre feltolerans i vissa fall på grund av relativt mindre ri och större δi. Sedan får vi en Singleton-liknande övre gräns på minimiavståndet för de föreslagna LRCs genom att använda regenererande teknik. Slutligen får vi en klass av explicita och strukturerade konstruktioner av optimala ML-LRCs, och utvidga dem ytterligare till fall av flera (ri, δ) i [s] orter.
De lokalt reparerbara koder med flera (r i, δ i )-lokaliteter presenteras i REF.
11,294,547
Locally repairable codes with multiple (ri, δi)-localities
{'venue': '2017 IEEE International Symposium on Information Theory (ISIT)', 'journal': '2017 IEEE International Symposium on Information Theory (ISIT)', 'mag_field_of_study': ['Computer Science']}
14,719
Rollbrytning tar itu med problemet med att hitta en rollbaserad åtkomstkontroll (RBAC) konfiguration, med tanke på en accesscontrol matris tilldela användare åtkomstbehörigheter som ingång. De flesta roll-mining strategier fungerar genom att bygga en stor uppsättning av kandidatroller och använda en girig urvalsstrategi för att iterativt välja en liten delmängd så att skillnaderna mellan den resulterande RBAC-konfigurationen och åtkomstkontrollmatrisen minimeras. I den här artikeln förespråkar vi ett alternativt tillvägagångssätt som omarbetar rollbrytning som ett inferensproblem snarare än ett förlustkompressionsproblem. Istället för att använda kombinatoriska algoritmer för att minimera antalet roller som behövs för att representera åtkomst-kontrollmatrisen, härleder vi probabilistiska modeller för att lära sig RBAC-konfigurationen som troligen ligger till grund för den givna matrisen. Våra modeller är generativa på så sätt att de återspeglar hur behörigheter tilldelas användare i en given RBAC-konfiguration. Vi modellerar dessutom hur användar-tillståndsuppdrag som står i konflikt med en RBAC-konfiguration uppstår och vi undersöker påverkan av begränsningar på rollhierarkier och på antalet uppdrag. I experiment med åtkomst-kontroll matriser från verkliga företag, jämför vi våra föreslagna modeller med andra roll-mining metoder. Våra resultat visar att våra probabilistiska modeller drar slutsatser om roller som generaliserar väl till nya systemanvändare för ett brett utbud av data, medan andra modellers generaliseringsförmåga beror på den datauppsättning som ges.
REF omarbetar roll mining som en slutsats problem och minerade roller som sannolikt genererade en given binär access-control matris av förväntanmaximization algoritm.
910,258
Role Mining with Probabilistic Models
{'venue': 'TSEC', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
14,720
I takt med att efterfrågan på allestädes närvarande nätverksanläggningar ökar blir infrastrukturlösa och självkonfigurerande system som mobila ad hoc-nätverk (MANET) allt populärare. MANET routing säkerhet är dock en av de viktigaste utmaningarna för bred adoption, med maskhål attacker är en särskilt allvarlig MANET routing hot. Detta beror på att maskhål kan störa en stor del av nätverkstrafiken, samtidigt som de är extremt svåra att upptäcka. Detta papper introducerar en ny maskhål detektion paradigm baserat på Traversal Time och Hop Count Analysis (TTHCA), som i jämförelse med befintliga algoritmer, konsekvent ger överlägsen detektion prestanda, allierad med låga falska positiva hastigheter för alla maskhål varianter. Simuleringsresultat bekräftar att TTHCA-modellen uppvisar robust detektering av maskhålsrutter i olika nätverksscenarier, samtidigt som den endast medför ett litet nätövertryck. Denna funktion gör TTHCA ett attraktivt val för MANET miljöer som i allmänhet omfattar enheter, såsom trådlösa sensorer, som har en begränsad bearbetningskapacitet.
Slutligen presenterade författarna REF en ny robust algoritm för upptäckt av maskhål baserat på pakettransversal tid och humleräkningsanalys (TTHCA) för AODV routing-protokollet.
10,076,961
A New MANET Wormhole Detection Algorithm Based on Traversal Time and Hop Count Analysis
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
14,721
Abstract-Current TCP protokoll har lägre genomströmningsprestanda i satellitnät främst på grund av effekterna av långa spridningsförseningar och höga felfrekvenser länk. I detta dokument införs ett nytt system för kontroll av överbelastning som kallas TCP-Peach för satellitnät. TCP-Peach består av två nya algoritmer, nämligen Sudden Start och Rapid Recovery, samt de två traditionella TCP-algoritmerna, Congestion Avoidance och Fast Retransmit. De nya algoritmerna bygger på det nya konceptet att använda overksamma segment för att undersöka tillgängligheten av nätverksresurser utan att överföra någon ny information till avsändaren. Dummy-segment behandlas som lågprioriterade segment och påverkar därför inte den faktiska datatrafiken. Simuleringsförsök visar att TCP-Peach överträffar andra TCP-system för satellitnät när det gäller goodput. Det ger också en rimlig andel av nätverksresurserna.
Akyildiz etc. föreslår ett transportlagerprotokoll som kallas TCP Peach REF för satellitnät.
12,914,760
TCP-Peach: A New Congestion Control Scheme for Satellite IP Networks
{'venue': 'IEEE/ACM Transactions on Networking', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,722
Abstract-Proviable data innehav (PDP) är en teknik för att säkerställa integriteten av data i lagring outsourcing. I detta dokument tar vi upp byggandet av ett effektivt PDP-system för distribuerad molnlagring för att stödja skalbarheten av tjänste- och datamigrering, där vi anser att det finns flera leverantörer av molntjänster för att gemensamt lagra och underhålla kundernas data. Vi presenterar ett kooperativt PDP (CPDP) system baserat på homomorfa kontrollerbara svar och hash index hierarki. Vi bevisar säkerheten i vårt system baserat på multiprover noll-kunskap bevissystem, som kan tillfredsställa fullständighet, kunskap sundhet, och noll-kunskap egenskaper. Dessutom formulerar vi prestandaoptimeringsmekanismer för vårt system, och presenterar i synnerhet en effektiv metod för att välja optimala parametervärden för att minimera beräkningskostnaderna för kunder och leverantörer av lagringstjänster. Våra experiment visar att vår lösning inför lägre kostnader för beräkning och kommunikation jämfört med icke-kooperativa metoder.
Zhu et al., presentera ett kooperativt PDP (CPDP) system baserat på homomorfa kontrollerbara svar och hash index hierarki REF.
9,469,740
Cooperative Provable Data Possession for Integrity Verification in Multicloud Storage
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
14,723
Abstrakt Tjugosju automatiskt utdragbara felrättningsmönster definieras med hjälp av syntaxkomponenterna och sammanhanget för källkoden som är involverad i felrättelser. Felrättningsmönster extraheras från konfigurationshanteringsarkiven för sju projekt med öppen källkod, alla skrivna i Java (Eclipse, Columba, JEdit, Scarab, ArgoUML, Lucene och MegaMek). Definierat felrättningsmönster täcker 45,7% till 63,3% av de totala felrättningsparen i dessa projekt. Frekvensen av förekomst av varje felrättningsmönster beräknas för alla projekt. De vanligaste individuella mönstren är MC-DAP (metodanrop med olika faktiska parametervärden) vid 14,9-25,5%, IF-CC (ändring i om villkorat) vid 5,6-18,6%, och AS-CE (ändring av uppdragsuttryck) vid 6,0-14,2%. En korrelationsanalys av de extraherade mönsterfallen på de sju projekten visar att sex har mycket liknande felrättningsmönsterfrekvenser. Analys av om villkorliga felrättningar visar en trend mot ökande villkorlig komplexitet om villkorliga rättningar. Analys av fem utvecklare i Eclipse-projekten visar övergripande överensstämmelse med felrättningsfrekvenser på projektnivå, samt tydliga variationer bland utvecklare i deras frekvens av att producera olika felmönster. Sammantaget tyder data i tidningen på att utvecklare har problem med specifika kodsituationer med förvånansvärt konsekventa hastigheter. Det verkar finnas breda mekanismer som orsakar injicering av buggar som till stor del är oberoende av vilken typ av programvara som produceras.
- Pan et al. - Vad är det? REF identifierade 27 buggfix mönster från programvaruprojekt ändra historia av sju Java öppen källkod projekt, Eclipse, Columba, JEdit, Scarab, ArgoUML, Lucene och MegaMek.
16,000,233
Toward an understanding of bug fix patterns
{'venue': 'Empirical Software Engineering', 'journal': 'Empirical Software Engineering', 'mag_field_of_study': ['Computer Science']}
14,724
I detta dokument anser vi att den säkra överföringen med flera ingångar, engångsutgång, single-antenna tjuvlyssnare (MISOSE) i snabbt bleknande kanaler där sändaren vet perfekt legitim kanalstatsinformation men bara statistiken över tjuvlyssnarens kanal. För MISOSE-kanalerna är den artificiella bullerstödd strålformning som föreslås av Goel och Negi en lovande teknik, där det artificiella bruset införs på den legitima kanalens nollutrymme för att störa tjuvlyssnarens mottagning. Här föreslår vi ett allmänt system för artificiellt buller som tillåter insprutning av artificiellt buller till den legitima kanalen. Även om det generaliserade konstgjorda buller kan orsaka läckage av artificiellt buller vid den legitima mottagaren, sekretessgraden kan fortfarande förbättras eftersom kovariansmatrisen av det är mer flexibel än den heuristiska som valts av Goel och Negi. För att fullt ut beskriva det föreslagna systemet undersöker vi optimeringen av dess sekretessgrad. Vi härleder först de förhållanden under vilka ljusbildarna av signalen och det generaliserade artificiella bruset är lika optimala. Baserat på detta val, den komplicerade sekretessgrad optimering problem över covariance matriser av den meddelandebärande signalen och den generaliserade artificiella buller kan minskas till en mycket enklare kraftfördelning problem. Vi utvecklar också en effektiv algoritm för att lösa detta icke-konvexa kraftfördelningsproblem. Numeriska resultat visar att vårt generaliserade system för artificiellt buller överträffar Goel och Negis heuristiska val, särskilt i de nära tjuvlyssnarinställningarna. Särskilt med hjälp av den föreslagna ordningen utvidgas systemet med icke-noll sekretessgrad, vilket avsevärt kan förbättra nätets konnektivitet. Index Terms-Physical lager säkerhet, perfekt sekretess, avlyssning kanal, partiell kanal uttalande information på sändare, artificiellt buller, flera antenner, säker strålformning.
I samma miljö, Lin et al. REF härleder den optimala inmatade kovariansmatrisen, där det artificiella bruset injiceras och optimeras.
8,176,176
On Secrecy Rate of the Generalized Artificial-Noise Assisted Secure Beamforming for Wiretap Channels
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
14,725
Abstract Computational Grids är en ny trend inom distribuerade datorsystem. De gör det möjligt att dela geografiskt distribuerade resurser på ett effektivt sätt, vilket utvidgar gränserna för vad vi uppfattar som distribuerade datorer. Olika vetenskaper kan dra nytta av användningen av rutnät för att lösa CPU-intensiva problem, vilket skapar potentiella fördelar för hela samhället. Med ytterligare utveckling av nätteknik är det mycket troligt att företag, universitet och offentliga institutioner kommer att utnyttja nät för att förbättra sin datorinfrastruktur. Under de senaste åren har forskningen om nätteknik ökat kraftigt, vilket har lett till vissa genomföranden av referensnät. Schemaläggning av uppgifter är en integrerad del av parallella och distribuerade datorer. Intensiv forskning har gjorts på detta område och många resultat har accepterats. I och med uppkomsten av beräkningsnätet efterfrågas nya schemaläggningsalgoritmer för att ta itu med nya problem som uppstår i nätmiljön. I denna miljö schemaläggning problem är att schemalägga en ström av program från olika användare till en uppsättning datorresurser för att minimera slutförandet tid. Schemaläggningen innebär att program behöver matchas med resurstillgänglighet. Det finns tre huvudfaser av schemaläggning på ett rutnät [5]. Fas ett är resursfyndighet, som genererar en lista över potentiella resurser. Fas två handlar om att samla in information om dessa resurser och välja den bästa uppsättningen för att matcha ansökningskraven. I fas tre utförs uppgiften, vilket inkluderar fil iscensättning och rensning. I den andra fasen valet av bästa par av uppgifter och resurser är NP-komplett problem [5]. En relaterad schemaläggningsalgoritm för det traditionella schemaläggningsproblemet är Dynamic Level Scheduling (DLS) algoritm [17]. DLS syftar till att välja det bästa subtask-maskin paret för nästa schemaläggning. För att välja den bästa subtask-maskin par, ger det en modell för att beräkna den dynamiska nivån på aktivitetsmaskin paret. Det övergripande målet är att minimera beräkningstiden för ansökan. I rutnätsmiljön fokuserar schemaläggningsalgoritmen inte längre på deluppgifter i en applikation inom en beräkningsvärd eller en virtuell organisation (kluster, nätverk av arbetsstationer, etc.). Målet är att schemalägga alla inkommande applikationer till den tillgängliga beräkningskraften. I [2,10] har några enkla heuristiker för dynamisk matchning och schemaläggning av en klass av oberoende uppgifter på ett heterogent datasystem presenterats. Det finns två olika mål för uppgift schemaläggning: hög prestanda dator och hög genomströmning dator. Det tidigare målet är att minimera tiden för genomförandet av varje ansökan och det senare målet är att schemalägga en uppsättning oberoende uppgifter för att öka systemens bearbetningskapacitet under en lång tidsperiod. Vår strategi är att utveckla en hög genomströmning av data schemaläggningsalgoritm. Tidningen är organiserad enligt följande. I avsnitt 2 diskuteras den simulerade glödgningsmetoden och den grundläggande strukturen. I avsnitt 3 införs schemaläggningsalgoritm för rutnät. Vi gör några experimentella tester och avslutar denna studie i avsnitt 4 och 5.
Fidanova REF införde en schemaläggningsalgoritm för rutnätsdata baserat på simulerad glödgning (SA).
17,469,583
Simulated Annealing for Grid Scheduling Problem
{'venue': "IEEE John Vincent Atanasoff 2006 International Symposium on Modern Computing (JVA'06)", 'journal': "IEEE John Vincent Atanasoff 2006 International Symposium on Modern Computing (JVA'06)", 'mag_field_of_study': ['Computer Science']}
14,726
I en proxy re-kryptering schema en semi-tillförlitlig proxy omvandlar en chiffertext för Alice till en chiffertext för Bob utan att se den underliggande klartext. Ett antal lösningar har föreslagits i den allmänna nyckeln. I detta dokument tar vi upp problemet med Identity-Based proxy re-kryptering, där chiffertexts omvandlas från en identitet till en annan. Våra system är kompatibla med nuvarande IBE distributioner och kräver inte något extra arbete från IBE betrodda-part nyckel generera. Dessutom är de icke-interaktiva och en av dem tillåter flera omkrypteringar. Deras säkerhet är baserad på ett standardantagande (DBDH) i den slumpmässiga orakelmodellen.
I ett parallellt och oberoende arbete presenterade Green och Ateniese den första CPA- och CCA-säkra identitetsbaserade PR i den slumpmässiga oraklet modellen REF.
1,291,954
Identity-based proxy re-encryption
{'venue': 'In ACNS ’07', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,727
Webben erbjuder en corpus på över 100 miljoner tabeller [6], men innebörden av varje tabell är sällan explicit från själva tabellen. Rubrikrader finns i få fall och även när de gör det är attributnamnen vanligtvis värdelösa. Vi beskriver ett system som försöker återställa semantiken i tabeller genom att berika bordet med ytterligare kommentarer. Våra anteckningar underlättar verksamhet som att söka efter tabeller och hitta relaterade tabeller. För att återställa semantik av tabeller, vi utnyttja en databas av klass etiketter och relationer automatiskt extraheras från webben. Databasen över klasser och relationer har mycket bred täckning, men är också bullriga. Vi bifogar en klassetikett till en kolumn om ett tillräckligt antal av värdena i kolumnen identifieras med den etiketten i databasen över klassetiketter, och analogt för binära relationer. Vi beskriver en formell modell för resonemang om när vi har sett tillräckliga bevis för en etikett, och visar att den presterar betydligt bättre än ett enkelt majoritetssystem. Vi beskriver en uppsättning experiment som illustrerar nyttan av den återvunna semantiken för bordssökning och visar att den presterar betydligt bättre än tidigare metoder. Dessutom karakteriserar vi vilken del av tabellerna på webben som kan kommenteras med vårt tillvägagångssätt.
Venetis m.fl. REF använder en databas med klassetiketter och relationer som hämtats från webben för bordssökning.
11,359,711
Recovering Semantics of Tables on the Web
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
14,728
Vi anser att ett opålitligt trådlöst sensornät med n noder placerade i en kvadrat enhet område. Vi är intresserade av täckningen av regionen och anslutningen av nätverket. Vi visar först att de nödvändiga och tillräckliga villkoren för det slumpmässiga nätet för att täcka enheten kvadrat region samt se till att de aktiva noderna är anslutna är av formen n, där r (n) är överföringsradien för varje nod och p (n) är sannolikheten för att en nod är "aktiv" (inte misslyckades). Detta resultat indikerar att när n är stort, även om varje nod är mycket opålitlig och överföringskraften är liten, kan vi fortfarande upprätthålla anslutning med täckning. Vi visar också att diametern på det slumpmässiga rutnätet (dvs. det maximala antalet humle som krävs för att resa från någon aktiv nod till en annan) är av ordningen n/ log(n). Slutligen får vi ett tillräckligt villkor för anslutning av de aktiva noderna (utan att nödvändigtvis ha täckning). Om noden framgång sannolikhet p(n) är liten nog, visar vi att anslutning inte innebär täckning.
Upphovsmän inom REF-studieområdets täckning och konnektivitet i ett otillförlitligt trådlöst sensornät och uppvisar ett nödvändigt och tillräckligt villkor för täckning och konnektivitet.
15,796,211
Unreliable sensor grids: coverage, connectivity and diameter
{'venue': 'Ad Hoc Networks', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,729
Bakgrund: Systematiska litteraturrecensioner (SLRs) har fått stor uppmärksamhet från forskare inom Software Engineering (SE) sedan 2004. Flera forskare har också arbetat med att förbättra den vetenskapliga och tekniska infrastruktur som finns tillgänglig för att stödja SLR i SE. Mål: Den studie som redovisas i detta dokument syftar till att validera den QGS-baserade sökprocessen för SLR, dvs. Huruvida en mer effektiv och/eller produktiv sökning kan uppnås genom att följa en sådan systematisk process. Metod: Vi använde en dubbelfallsstudie, där varje fall innehåller två observationer av SE litteratursökning för samma SLR men använder och inte använder QGS-baserad metod. Resultat: Den övergripande känsligheten och precisionen för varje observation beräknades för de sökfall som implementerade olika sökdesign. Slutsatser: En systematisk sökningsprocess (QGS-baserad sökning i detta dokument) verkar öka känsligheten och precisionen i de två fallen av SLR. En sådan sökningsprocess kan bidra till att fånga upp mer relevanta studier samt spara granskarnas tid i litteratursökningsaktiviteter. Våra observationer visar också att en integrerad sökstrategi rekommenderas för SLRs i SE för att undvika eventuella begränsningar av att tillämpa en manual eller automatiserad sökning.
Zhang m.fl. REF bedömde den QGS-baserade systematiska sökprocessen för SLRs och fann att användningen av en sådan sökprocess kan bidra både till att identifiera mer relevanta studier och till att spara tid i sökprocessen.
62,241,507
An empirical assessment of a systematic search process for systematic reviews
{'venue': '15th Annual Conference on Evaluation & Assessment in Software Engineering (EASE 2011)', 'journal': '15th Annual Conference on Evaluation & Assessment in Software Engineering (EASE 2011)', 'mag_field_of_study': ['Computer Science']}
14,730
Sammanfattning av denna webbsida: Att rikta in sig på tillämpningar för medicinsk övervakning av trådlösa nätverk för kroppsyta (WBAN), ett hybridprotokoll för medium åtkomst med hjälp av en avbrottsmekanism (I-MAC) föreslås för att förbättra energi- och tidsåtgångens effektivitet och för att uppfylla kraven på dataleveransfördröjning på samma gång. Till skillnad från befintliga hybrida MAC-protokoll, en superframe struktur med en längre längd antas för att undvika onödiga beacons. Tidsluckorna är oftast allokerade till noder med periodiska datakällor. Korta avbrottstider sätts in i superdatorn för att överföra brådskande data och för att garantera realtidskraven för dessa data. Under dessa avbrott kan koordinatorn bryta den körande superframen och starta en ny superframe. En tvisteåtkomstperiod (CAP) aktiveras endast när det finns mer data som behöver levereras. Experimentella resultat visar hur effektivt det föreslagna MAC-protokollet är i WBAN med låg brådskande trafik.
Författarna i REF föreslog ett MAC-protokoll med hjälp av en avbrytande mekanism för medicinsk övervakning.
9,509,748
A MAC Protocol for Medical Monitoring Applications of Wireless Body Area Networks
{'venue': 'Sensors', 'journal': 'Sensors', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
14,731
Befolkningen av äldre människor ökar snabbt i många utvecklade länder. Att ge trygg och bekväm vård till åldrande människor är ett viktigt socialt mål. Dessutom är det ett viktigt forskningsmål att få korrekt information om aktivitet och plats för en äldre person. I detta arbete föreslås ett nytt intelligent RFID-baserat inomhusspårningssystem för äldre som bor ensamma. Det föreslagna systemet använder miljöinformation för invånarna och fick en RFID-läsares signalstyrka för att uppskatta en invånares troliga läge. Det föreslagna systemet koordinerar sedan med den trådlösa sensornoden för en treaxlig accelerometer och använder en genetisk algoritm för att beräkna var invånaren befinner sig. Det föreslagna systemet använder också kontext- och gånginformation för att förbättra noggrannheten hos invånares spårning. Experimentella resultat visar att noggrannheten hos det föreslagna systemet är bättre än hos befintliga RFID-baserade system.
I aspekten av IoT-baserade applikationer för SC, Hsu et al. föreslog ett RFID-baserat inomhusspårningssystem för äldre som bor ensamma REF.
12,673,443
A Novel Sensor-Assisted RFID-Based Indoor Tracking System for the Elderly Living Alone
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Computer Science', 'Engineering']}
14,732
Bipolär sjukdom är en kronisk psykiatrisk sjukdom som kännetecknas av patologiska humörsvängningar i samband med allvarliga störningar i känsloregleringen. Klinisk övervakning av humöret är nyckeln till vård av dessa dynamiska och invalidiserande humörtillstånd. Frekvent och detaljerad övervakning förbättrar klinisk känslighet för att upptäcka humörförändringar, men kräver vanligtvis kostsamma och begränsade resurser. Talegenskaperna förändras under både deprimerade och maniska tillstånd, vilket tyder på automatiska metoder som tillämpas på talsignalen kan effektivt användas för att övervaka humörförändringar. Men tal moduleras av många faktorer, vilket gör stämningen tillståndsförutsägelse utmanande. Vi tror att känslor kan användas som ett mellansteg för att förbättra stämningstillståndet förutsägelse. Detta dokument presenterar kritiska steg för att utveckla denna pipeline, inklusive (1) en ny i den vilda känslor dataset, PRIORI Emotion Dataset, samlas in från vardagliga smartphone konversationstal inspelningar, (2) aktivering/valence känslor igenkänningsgrunder på denna dataset (PCC av 0,71 respektive 0,41, respektive 3) signifikant korrelation mellan förutsagd känsla och humör för individer med bipolär sjukdom. Detta ger belägg och en fungerande baslinje för användningen av känslor som meta-feature för övervakning av stämningstillstånd.
REF verifierade det signifikanta sambandet mellan förutsagd känsla och humör för personer med bipolär sjukdom på akustisk modalitet.
49,523,812
The PRIORI Emotion Dataset: Linking Mood to Emotion Detected In-the-Wild
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
14,733
Det påstås ofta att system för erkännande av namngivna enheter behöver omfattande information – förteckningar över namn på personer, organisationer, platser och andra namngivna enheter. Sammanställningen av sådana gösar nämns ibland som en flaskhals i utformningen av system för erkännande av namngivna enheter. Vi rapporterar om ett system för erkännande av namngivna enheter som kombinerar regelbaserad grammatik med statistiska (maximal entropi) modeller. Vi rapporterar om systemets prestanda med åskådare av olika typer och storlekar, med hjälp av testmaterial från MUC-7-tävlingen. Vi visar att det för denna tävlings texttyp och uppgift är tillräckligt att använda relativt små giktare med välkända namn, snarare än stora giktare med lågfrekventa namn. Vi avslutar med observationer om tävlingens och våra experiments domänoberoende.
I REF undviker författarna stora blickar genom att kombinera regelbaserad grammatik med statistiska (maximal entropi) modeller.
7,332,330
Named Entity Recognition Without Gazetteers
{'venue': 'Conference Of The European Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,734
Sammanfattning av denna webbsida: Vi studerar Elastiska nätets val av modell. I de klassiska inställningarna när p (antalet prediktorer) och q (antalet prediktorer med icke-nollkoefficienter i den sanna linjära modellen) är fast, Yuan och Lin (2007) ger ett nödvändigt och tillräckligt villkor för Elastic Net att konsekvent välja den sanna modellen. De visade att det konsekvent väljer den sanna modellen om och endast om det finns lämpliga sekvenser λ1(n) och λ2(n) som uppfyller EIC (som definieras senare i papperet). Här studerar vi det allmänna fallet när p, q och n alla går till oändlighet. För allmänna skalningar av p, q och n, när gaussiskt buller antas, ges tillräckliga villkor så att EIC garanterar Elastic Nets modellvalskonsistens. Vi visar att för att dessa villkor ska hålla, n bör växa snabbare än q log(p − q). Vi jämför det Elastiska nätets varierande urvalsprestanda med Lassos. Genom teoretiska resultat och simuleringsstudier ger vi insikter om när Elastic Net konsekvent kan välja den sanna modellen även när Lasso inte kan. Vi påpekar också genom exempel att när Lasso inte kan välja den sanna modellen är det mycket troligt att Elastic Net inte heller kan välja den sanna modellen.
Till exempel, Jia och Yu REF studera den elastiska nätet regularizer (en kombination av l 1 och squared l 2 normer), visar att det kan konsekvent välja den sanna modellen för vissa korrelerade designmatriser A, när LASSO inte kan.
15,064,559
1 On Model Selection Consistency of the Elastic Net When p ≫ n
{'venue': None, 'journal': None, 'mag_field_of_study': ['Mathematics']}
14,735
Det är väletablerat att synapsbildning involverar mycket selektiva kemospecifika mekanismer, men hur neuronarbors är placerade innan synapsbildning förblir oklart. Med hjälp av 3D-rekonstruktioner av 298 neokortikala celler av olika typer (inklusive bokorg, liten korg, stor korg, bitufted, pyramidal, och Martinotti celler), konstruerade vi en strukturell modell av en kortikal mikrokrets, där celler av olika typer var oberoende och slumpmässigt placerade. Vi jämförde positionerna för fysiska appositioner till följd av den tillfälliga överlappningen av axonala och dendritiska arbor i modellen (statistiska strukturella konnektivitet) med positionerna för putativa funktionella synapser (funktionell synapsisk konnektivitet) i 90 synapsiska anslutningar rekonstruerade från kortikala skivor. Sammantaget fann vi att statistisk konnektivitet förutspådde i genomsnitt 74 ± 2,7 % (genomsnitt ± SEM) synapslokaliseringar för nio typer av kortikala anslutningar. Detta fynd tyder på att kemospecifika attraktiva och motbjudande mekanismer i allmänhet inte resulterar i parvis specifik anslutning. I vissa fall stämmer dock inte de förutsagda distributionerna överens exakt, vilket tyder på att kemospecifik styrning och anpassning av arbor kan förekomma för vissa typer av anslutningar. Detta fynd tyder på att slumpmässig anpassning av axonala och dendritiska arbors ger en tillräcklig grund för specifik funktionell anslutning för att uppstå i lokala neurala mikrokretsar. En bred skala av molekylära signalmekanismer verkar för att bilda neokortikala skikt (1, 2), fastställa riktlinjer för neuroner att positionera sig själva och växa sina axonala och dendritiska bors (3, 4), forma morfologier av olika typer av neuroner (5), vägleda input axons till specifika lager (6), utlösa differentiering och klustererade arborizations av axonal arbors (7), prune axonal arbors på ett aktivitetsberoende sätt (8), vägleda axonal tillväxt längs axon initialsegmentet (9), och selektivt bilda synapser mellan specifika typer av neuroner (10-12). Molekylära mekanismer bidrar också till den aktivitetsaktiverade bildningen av synapser mellan specifika neuronerpar (13). Mekanismerna som bestämmer denna selektiva förbindelse har varit föremål för aktiv debatt i över ett århundrade (3, (14) (15) (17), med förslag som sträcker sig från idén om "kemiska relationer" mellan anslutna neuroner i Langleys arbete (18) till "kemoaffinitetshypotesen" (idén att exakt synapspositionering specificeras av "mycket specifika cytokemiska affiniteter" mellan neuroner) i Sperrys arbete (19). Resultatet är en spännande karta över synapsförbindelser mellan alla neuroner och specifika typer av neuroner, vanligen kallade connectome. Hur förbindelsen uppstår diskuteras fortfarande (20). En fråga som är kärnan i debatten är i vilken utsträckning kemospecifika mekanismer specifikt anpassar neuronala arbor mellan neuroner innan synapsförbindelser bildas. Spinn är dynamiska strukturer som formar, växer, krymper eller till och med försvinner som svar på aktivitet och erfarenhet (21), och neokortikala pyramidala neuroner förbinder och kopplar från varandra dynamiskt och som svar på stimulering (13). Lokala dendritiska och axonala specialiseringar, såsom bildandet av en ryggrad och synaptiska bouton, är tillräckliga för att omkonfigurera neurala kretsar utan behov av axoner att växa till en målcell. Därför måste alla neuroner som potentiellt kan bilda anslutningar redan vara i linje innan synapsbildning för att säkerställa celltypspecifik synapsmönstring. Även de starkaste förespråkarna av statistisk konnektivitet eller neurogeometri (22, 23) tror att arbor anpassning kräver extracellulär kemisk repulsion (24) och attraktion (25). Det har dock föreslagits att den unika anpassningen av tusentals enskilda fibrer av specifika par av neuroner skulle kräva "miljoner och kanske miljarder" av cellspecifika molekylära isoformer (19). För att ta itu med frågan om i vilken utsträckning anpassningen av bors mellan specifika typer av neuroner orsakas av parvis kemospecifika signalering i motsats till den tillfälliga överlappningen av oberoende neurala morfologier, konstruerade vi en modell neokortikal krets som innehåller en delmängd av de neurontyper som finns i neokortex. Genom att montera kretsen från morfologier som var från samma hjärnområde och åldersintervall men olika djur och placerade slumpmässigt, eventuella parvis kemospecifik anpassning uteslöts. Denna sammansättning gjorde det möjligt för oss att testa i vilken utsträckning statistisk konnektivitet, mätt som appositioner mellan arbors av oberoende positionerade och odlade morfologier, kan förutsäga mätningar av funktionell synaps konnektivitet som finns i kortikala skivor preparat. Vi fann att statistikkonnektivitet, med bara några få undantag, var en bra prediktor för funktionell synapskonnektivitet. Detta fynd tyder på att förbindelsen av kortikal mikrokretsbildning till stor del bildas från den icke-specifika anpassningen av neuronmorfologier. I bara några få fall är kemospecifika mekanismer som krävs för att förklara specifika fiberanpassningar. Även om många studier har undersökt i vilken utsträckning geometrisk överlappning förutsäger antalet synapser mellan neuroner (23), har det varit svårare att testa huruvida slumpmässiga geometriska mekanismer kan förklara fördelningen av
I dokumentet REF studeras också den verkliga biologiska hjärnan och i synnerhet den kemospecifika styrningen och anpassningsprocessen för synapsförbindelser.
16,985,318
Statistical connectivity provides a sufficient foundation for specific functional connectivity in neocortical neural microcircuits.
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Biology', 'Medicine']}
14,736
I detta dokument beskrivs DCU-UVT-teamets deltagande i språkidentifieringen i den gemensamma uppgiften Code-Switched Data i workshopen om beräkningsmetoder för kodbyte. Wordlevel klassificering experiment utfördes med en enkel ordbok-baserad metod, linjär kärna stöd vektor maskiner (SVMs) med och utan kontextuella ledtrådar, och en k-nearest granne tillvägagångssätt. Baserat på dessa experiment väljer vi vårt SVM-baserade system med kontextuella ledtrådar som vårt slutliga system och presenterar resultat för de nepali-engelska och spansk-engelska dataseten.
REF presenterar system för både nepali-engelska och spansk-engelska LCSPD.
6,658,277
DCU-UVT: Word-Level Language Classification with Code-Mixed Data
{'venue': 'CodeSwitch@EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,737
Mål: Konceptualisering av de fysiska objekt och utrymmen som utgör människokroppen på den makroskopiska organisationsnivån, specificerad som en maskinförståelig ontologi som i sin mänskliga läsbara form är begriplig för både experter och nybörjare som använder anatomisk information. Design: Uppfattad som en anatomisk förbättring av UMLS Semantic Network och Metathesaurus, den anatomiska ontologin formulerades genom att definiera attribut och differentialer för klasser och subklasser av fysiska anatomiska enheter baserat på deras partitiva och rumsliga relationer. Klassificeringens giltighet bedömdes genom att ontologin för bröstkorgen omedelbart infördes. Flera transitiva relationer användes för symboliskt modellering aspekter av den fysiska organisationen av bröstkorgen.
Därför, bygga ett semantiskt nätverk av anatomiska relaterade enheter är av stort värde för både experter och nybörjare REF.
18,374,259
1 Motivation and Organizational Principles for Anatomical Knowledge Representation: the Digital Anatomist Symbolic Knowledge Base
{'venue': 'Journal of the American Medical Informatics Association : JAMIA', 'journal': 'Journal of the American Medical Informatics Association : JAMIA', 'mag_field_of_study': ['Computer Science', 'Medicine']}
14,738
Abstract-This paper presenterar en undersökning av evolutionära algoritmer som är utformade för beslut träd induktion. I detta sammanhang fokuserar merparten av dokumentet på strategier som utvecklar beslutsträd som en alternativ heurist till den traditionella top-down-klyftan och-konvergensen. Dessutom presenterar vi några alternativa metoder som använder sig av evolutionära algoritmer för att förbättra vissa komponenter i beslutsträdsklassificeringar. Dokumentets ursprungliga bidrag är följande: För det första ger det en uppdaterad översikt som är helt fokuserad på evolutionära algoritmer och beslutsträd och inte koncentrerar sig på någon specifik evolutionär strategi. För det andra ger det en taxonomi, som behandlar verk som utvecklar beslutsträd och verk som designar beslutsträdskomponenter genom användning av evolutionära algoritmer. Slutligen ges ett antal referenser som beskriver tillämpningar av evolutionära algoritmer för beslutsträdsinduktion inom olika områden. I slutet av detta dokument tar vi upp några viktiga frågor och öppna frågor som kan bli föremål för framtida forskning.
Mer information om evolutionära algoritmer för beslut träd induktion kan hittas i REF.
365,692
A Survey of Evolutionary Algorithms for Decision-Tree Induction
{'venue': 'IEEE Transactions on Systems, Man, and Cybernetics, Part C (Applications and Reviews)', 'journal': 'IEEE Transactions on Systems, Man, and Cybernetics, Part C (Applications and Reviews)', 'mag_field_of_study': ['Computer Science']}
14,739
Abstract-Vi studerar komplexiteten i approximering av vertex expansion av grafer G = (V, E), definieras som "Vi ger en enkel polynom tid algoritm för att hitta en delmängd med vertex expansion O och V log d där d är den maximala graden av grafen. Vårt huvudsakliga resultat är en asymptotiskt matchande nedre gräns: under Small Set Expansion (SSE) hypotes, är det svårt att hitta en delmängd med expansion mindre än C och V log d för en absolut konstant C. I synnerhet, detta innebär för alla konstant ε > 0, det är SSE-hård att skilja om vertex expansion < ε eller åtminstone en absolut konstant. Den analoga tröskeln för kantexpansion är ε och har inget beroende av graden (Här är den optimala kantexpansion). Således våra resultat tyder på att vertex expansion är svårare att approximera än kantexpansion. I synnerhet, medan Cheeger algoritm kan certifiera konstant kant expansion, är det SSE-hård att certifiera konstant vertex expansion i grafer.
Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. REF gav en SDP avrundning baserad algoritm som beräknar en uppsättning som har vertex expansion på de flesta O A V G log d, där d är den maximala vertex grad; de visade också en matchande hårdhet resultat baserat på Small-set expansion hypotes.
1,169,776
The Complexity of Approximating Vertex Expansion
{'venue': '2013 IEEE 54th Annual Symposium on Foundations of Computer Science', 'journal': '2013 IEEE 54th Annual Symposium on Foundations of Computer Science', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
14,741
Abstract-I detta papper anser vi att ett diskret tidsstokastiskt system, där sensormätningar skickas över ett nätverk till regulatorn. Konstruktionsmålet är ett icke-klassiskt multikriteriumoptimeringsproblem för ändlig horisont, där kostnadsfunktionen består av den linjära kvadratiska kostnaden som återspeglar kontrollprestandan och en kommunikationskostnad som bestraffar informationsutbyte mellan sensor och styrenhet. Det visas att den gemensamma optimeringen av schemaläggning och styrning kan delas in i tre delproblem: ett optimalt regulatorproblem, ett estimeringsproblem och ett optimalt schemaläggningsproblem. De erhållna resultaten utvidgas till TCP-liknande nätverk med slumpmässig paketförlust. I den föreslagna ramen klassificerar vi tre klasser av schemaläggare, en rent randomiserad, en deterministisk och ett statsberoende system, och jämför deras resultat med ett numeriskt exempel.
I synnerhet visade REF att den gemensamma optimeringen av schemaläggning och styrning kan separeras i underproblemen hos en optimal regulator, estimator och schemaläggning.
15,554,665
On LQG joint optimal scheduling and control under communication constraints
{'venue': 'Proceedings of the 48h IEEE Conference on Decision and Control (CDC) held jointly with 2009 28th Chinese Control Conference', 'journal': 'Proceedings of the 48h IEEE Conference on Decision and Control (CDC) held jointly with 2009 28th Chinese Control Conference', 'mag_field_of_study': ['Computer Science']}
14,742
Abstract-Vi presenterar en helt trådlös implementation av distribuerad sändningsstråleformning med hjälp av programvarudefinierade radioapparater. Distribuerad strålformning är ett gemensamt överföringssystem där ett antal noder i ett trådlöst nätverk organiserar sig i ett virtuellt antennsystem och fokuserar sin överföring i riktning mot den avsedda mottagaren, potentiellt uppnå storleksordningen förbättringar i energieffektivitet. Den största tekniska utmaningen när det gäller att förverkliga dessa vinster är att exakt synkronisera radiofrekvenssignalerna från de samarbetande noderna. Denna idé har studerats ingående under det senaste årtiondet och flera tekniker och arkitekturer för dess praktiska genomförande har utvecklats. I detta arbete visar vi vår senaste implementering av distribuerad strålformning på en standard, öppen källkod, programvarudefinierad radioplattform, där låg kvalitet oscillatorer gör synkronisering särskilt utmanande. Vår demonstration kommer att bestå av tre samarbetsvilliga sändare som sänder signaler som är konstruktiva vid mottagaren. Låga feedbackpaket som sänds från mottagaren används för frekvens- och fassynkronisering vid varje sändare på helt distribuerat sätt.
Dessutom visar Ref genomförandet av strålformningen med hjälp av virtuell antennteknik.
6,905,096
Demonstrating distributed transmit beamforming with software-defined radios
{'venue': '2012 IEEE International Symposium on a World of Wireless, Mobile and Multimedia Networks (WoWMoM)', 'journal': '2012 IEEE International Symposium on a World of Wireless, Mobile and Multimedia Networks (WoWMoM)', 'mag_field_of_study': ['Computer Science']}
14,743
Abstract-Vi betraktar scenariot med trådlösa sensornätverk där en viss applikation måste användas och varje applikationsuppgift måste tilldelas varje nod på bästa möjliga sätt. Metoder där beslut om utförande av uppgifter fattas av en enda central nod kan undvika utbyte av datapaket mellan noder för utförande av uppgifter, men inte kan anpassas till dynamiska nätverksförhållanden, och lider av beräknings komplexitet. För att ta itu med denna fråga föreslår vi i detta dokument en adaptiv och decentraliserad förhandlingsalgoritm för uppgiftstilldelning (TAN) för klusternätverkstopologier. Det är baserat på icke-kooperativ spelteori, där angränsande noder engagerar sig i förhandlingar för att maximera sina egna allmännyttiga funktioner för att komma överens om vilken av dem bör utföra enstaka applikationsuppgifter. Prestanda utvärderas i ett stadsscenario, där städernas gator är utrustade med olika sensorer och applikationsmålet är att upptäcka det snabbaste sättet att nå en destination, och i slumpmässiga WSN-scenarier. Jämförelser görs med tre andra algoritmer: 1) basalinställning utan uppgiftstilldelning till flera noder; 2) centraliserad aktivitetstilldelning livstidsoptimering; och 3) en dynamisk distribuerad algoritm, DLMA. Resultatet är att TAN överträffar dessa algoritmer i termer av applikationens färdigställandetid och genomsnittlig energiförbrukning.
På grund av brister i centraliserade tillvägagångssätt, såsom att vara olämplig för dynamiska nätverksförhållanden, vara bräcklig för instabila kommunikationslänkar, och hög beräknings komplexitet, i Pilloni et al., REF en adaptiv och decentraliserad uppgift tilldelning förhandling (TAN) algoritm utvecklas för klustererade WSNs.
21,599,956
TAN: A Distributed Algorithm for Dynamic Task Assignment in WSNs
{'venue': 'IEEE Sensors Journal', 'journal': 'IEEE Sensors Journal', 'mag_field_of_study': ['Computer Science']}
14,744
Abstract – Trådlösa sensornätverk har nyligen dykt upp som ett effektivt sätt att övervaka fjärr- eller ogästvänliga fysiska miljöer. En av de största utmaningarna i utformningen av sådana nätverk ligger i de begränsade energi- och beräkningsresurser som finns tillgängliga för :sensorn noder. Dessa begränsningar måste beaktas på alla nivåer i systemhierarkin. Utbyggnaden av sensornoder är det första steget i upprättandet av ett sensornätverk. Eftersom sensornätverken innehåller ett stort antal sensornoder måste noderna sättas in i kluster, där platsen för varje enskild nod inte kan garanteras fullt ut på förhand. Därför är antalet noder som måste sättas in för att helt täcka hela det övervakade området ofta högre än om ett deterministiskt förfarande användes. I nätverk med stochasliskt placerade noder, aktivera endast det nödvändiga antalet sensornoder vid en viss tidpunkt kan spara energi. Vi introducerar en heurist som väljer ömsesidigt uteslutande uppsättningar av sensornoder, där medlemmarna av var och en av dessa uppsättningar helt täcker det övervakade området. Intervallen av aktivitet är samma för alla uppsättningar, och endast en av uppsättningarna är akthe när som helst. De experimentella resultaten visar att genom att endast använda en delmängd av sensornoder i varje ögonblick, uppnår vi en betydande energibesparingar samtidigt som täckningen bevaras fullt ut.
Slijepcevic och Potkonjak REF föreslår en heurist som organiserar sensornätverket genom att välja ömsesidigt exklusiva uppsättningar av sensornoder som tillsammans helt täcker det övervakade området.
18,891,010
Power efficient organization of wireless sensor networks
{'venue': 'ICC 2001. IEEE International Conference on Communications. Conference Record (Cat. No.01CH37240)', 'journal': 'ICC 2001. IEEE International Conference on Communications. Conference Record (Cat. No.01CH37240)', 'mag_field_of_study': ['Computer Science']}
14,745
Detta dokument beskriver Parmesan, vår inlämning till 2014 Workshop on Statistical Machine Translation (WMT) metrics uppgift för utvärdering engelsk-till-tjeckisk översättning. Vi visar att de tjeckiska Meteor Parafrastabellerna är så bullriga att de faktiskt kan skada prestandan av metriska. De kan dock vara mycket användbara efter omfattande filtrering vid riktad parafrasering av tjeckiska referensstraff före utvärderingen. Parmesan utför först riktad parafrasering av referens meningar, sedan beräknar Meteor score med hjälp av endast den exakta matchningen på dessa nya referens meningar. Det visar betydligt högre korrelation med mänskligt omdöme än Meteor på data från WMT12 och WMT13.
Men dess tjeckiska parafrastabeller är så bullriga (dvs. de innehåller par av ickeparafrastiska uttryck) att de faktiskt skadar prestandan av metriska, eftersom det kan belöna felöversatt och även oöversatt ord REF.
8,651,335
Parmesan: Meteor without Paraphrases with Paraphrased References
{'venue': 'WMT@ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,746
Abstrakt. I detta papper etablerar vi max-flöde min-cut teorem för flera viktiga klasser av multicommodity flödesproblem. I synnerhet visar vi att för n-node multicommodity flow problem med enhetliga krav, är det maximala flödet för problemet inom en O (log n) faktor av den övre gränsen underförstått av min-cut. Resultatet (som är existentiellt optimalt) etablerar en viktig analog av den berömda 1-commodity max-flow min-cut teorem för problem med flera varor. Resultatet har också betydande tillämpningar inom området approximationsalgoritmer. Till exempel använder vi flödesresultatet för att designa den första polynomtiden (polylog n-times-optimala) approximationsalgoritmer för välkända NP-hårda optimeringsproblem såsom grafpartitionering, min-cut linjärt arrangemang, korsningsnummer, VLSI layout, och minimal feedback båge set. Tillämpningar av flödesresultaten på ruttproblem, omkonfigurering av nätverk, kommunikation i distribuerade nätverk, vetenskaplig databehandling och snabb blandning av Markovkedjor beskrivs också i tidningen.
Leighton och Rao REF uppnådde de första O(log n)-tillnärmningsalgoritmerna för kantexpansionsproblemen och det glesaste skärproblemet med allmänna krav på oriktade normala grafer.
18,527,968
Multicommodity max-flow min-cut theorems and their use in designing approximation algorithms
{'venue': 'JACM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,747
Trådlösa sensornätverkstillämpningar sträcker sig från industriell automation och styrning, jordbruks- och miljöskydd, till övervakning och medicin. I de flesta tillämpningar är data mycket känsliga och måste skyddas från alla typer av angrepp och missbruk. Säkerhetsutmaningar i trådlösa sensornätverk definieras främst av energi- och datorresurserna hos sensorenheter, minnesstorlek, radiokanalernas kvalitet och känslighet för fysisk infångning. I den här artikeln presenteras en inbyggd sensornod mikrocontroller utformad för att stödja sensorn nätverksprogram med allvarliga säkerhetskrav. Den har en låg effekt 16-bitars processor kärna som stöds av ett antal hårdvaruacceleratorer utformade för att utföra komplexa operationer som krävs av avancerade krypto algoritmer. Microcontroller integrerar en inbyggd Flash och en 8-kanals 12-bitars analog-till-digital omvandlare vilket gör det till en bra lösning för lågeffektsensorn noder. Artikeln behandlar de viktigaste säkerhetsfrågorna i trådlösa sensornätverk och presenterar arkitekturen i den föreslagna hårdvarulösningen. Dessutom ger det detaljer om genomförandet av chip, verifiering och maskinvaruutvärdering. Slutligen beräknas och analyseras chipets effektavlednings- och prestandasiffror.
Panić m.fl. REF presenterade en mikrokontrollerare som var särskilt utformad för att stödja WSN-tillämpningar med allvarliga säkerhetskrav.
15,649,325
An Embedded Sensor Node Microcontroller with Crypto-Processors
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
14,748
Vi presenterar komponent- och kopplingsvyer (C&C), som anger komponenternas och kopplingsmodellernas strukturella egenskaper på ett uttrycksfullt och intuitivt sätt. C&C-vyer ger möjlighet att avlägsna direkt hierarki, direkt anslutning, hamnnamn och typer, och kan därmed korsa de traditionella gränserna för den genomförandeorienterade hierarkiska nedbrytningen av system och delsystem, och återspeglar den partiella kunskap som finns tillgänglig för olika intressenter som är involverade i ett systems utformning. Som en primär tillämpning för C&C-vyer undersöker vi syntesproblemet: med tanke på en specifikation av C&C-vyer, bestående av obligatoriska, alternativa och negativa vyer, konstruera en konkret tillfredsställande C&C-modell, om en sådan finns. Vi visar att problemet är NP-hårdt och löser det, i en begränsad omfattning, med hjälp av en minskning till SAT, via legering. Vi utökar också det grundläggande problemet med stöd för bibliotekskomponenter, specifikationsmönster och arkitektoniska stilar. Resultatet av syntesen kan användas för vidare undersökning, simulering och förfining av C&C-modellen eller, som den fullständiga, slutliga modellen själv, för direkt generering av koder. Ett prototypverktyg och en utvärdering över fyra exempelsystem med flera specifikationer visar lovande resultat och föreslår intressanta framtida forskningsinriktningar mot en omfattande utvecklingsmiljö för strukturen hos komponent- och kopplingskonstruktioner.
Nyligen presenterade vi C&C-vyer REF, som ett sätt att formellt och intuitivt ange begränsningar för C&C-modellernas struktur.
881,272
Synthesis of Component and Connector Models from Crosscutting Structural Views
{'venue': "Joint Meeting of the European Software Engineering Conference and the ACM SIGSOFT Symposium on the Foundations of Software Engineering (ESEC/FSE'13), Eds.: B. Meyer, L. Baresi, M. Mezini, pages 444-454, ACM New York, 2013", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Engineering']}
14,749
Ett räkna Bloom filter (CBF) generaliserar en Bloom filter datastruktur för att tillåta medlemskap frågor på en uppsättning som kan förändras dynamiskt via tillägg och raderingar. Som med ett Bloom filter, en CBF får utrymme besparingar genom att tillåta falska positiva. Vi erbjuder ett enkelt hashing-baserat alternativ baserat på d-vänster hashing kallas en d-vänster CBF (dlCBF). DNCBF erbjuder samma funktionalitet som en CBF, men använder mindre utrymme, vilket i allmänhet sparar en faktor på två eller flera. Vi beskriver uppbyggnaden av dlCBF, ger en analys och demonstrerar deras effektivitet experimentellt.
Den d-vänster CBF (dlCBF) REF är förmodligen det bästa alternativet för en CBF.
16,602,678
An Improved Construction for Counting Bloom Filters
{'venue': '14th Annual European Symposium on Algorithms, LNCS 4168', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,750
Bakgrund: Den intensivvårdsenhet (ICU) längden av vistelse (LOS) av patienter som genomgår hjärtkirurgi kan variera avsevärt, och är ofta svårt att förutsäga inom de första timmarna efter intaget. Den tidiga kliniska utvecklingen av en hjärtkirurgisk patient kan vara prediktiv för hans LOS. Syftet med den aktuella studien var att utveckla en prediktiv modell för ICU urladdning efter icke-nödvändig hjärtkirurgi, genom att analysera de första 4 timmarna av data i den datoriserade medicinska dokumentationen av dessa patienter med Gaussian processer (GP), en maskininlärning teknik. Metoder: Icke-interventionell studie. Prediktiv modellering, separat utveckling (n = 461) och validering (n = 499) kohort. GP modeller utvecklades för att förutsäga sannolikheten för ICU ansvarsfrihet dagen efter kirurgi (klassificering uppgift), och för att förutsäga dagen för ICU ansvarsfrihet som en diskret variabel (regression uppgift). GP förutsägelser jämfördes med förutsägelser av EuroSCORE, sjuksköterskor och läkare. Klassificeringsuppgiften utvärderades med hjälp av aROC för diskriminering, och Brier Score, Brier Score Scaled, och Hosmer-Lemeshow test för kalibrering. Regressionsuppgiften utvärderades genom att jämföra medianvärdet för faktisk och förutsedd urladdning, förlustpåföljdsfunktion (LPF) ((faktisk predikterad)/faktisk) och beräkning av rotmedelvärdet för relativa fel i kvadraten (RMSRE). Resultat: Median (P25-P75) ICU vistelsens längd var 3 (2-5) dagar. För klassificering visade GP-modellen en aROC på 0,758 som var betydligt högre än sjuksköterskornas förutsägelser, men inte bättre än EuroSCORE och läkare. GP hade den bästa kalibreringen, med en Brier Score på 0,179 och Hosmer-Lemeshow p-värde på 0,382. För regression hade GP den högsta andelen patienter med en korrekt förutsagd dag för utskrivning (40 %), vilket var signifikant bättre än EuroSCORE (p < 0,001) och sjuksköterskor (p = 0,044) men motsvarande läkare. GP hade den lägsta RMSRE (0,408) av alla prediktiva modeller. Slutsatser: En GP-modell som använder PDMS-data från de första 4 timmarna efter inresa i intensivvården hos vuxna patienter med planerad hjärtkirurgi kunde förutsäga utsläpp från intensivvården som en klassificering samt en regressionsuppgift. GP-modellen visade en betydligt bättre diskriminativ kraft än EuroSCORE och ICU sjuksköterskor, och minst lika bra som förutsägelser gjorda av ICU läkare. GP-modellen var den enda väl kalibrerade modellen.
Andra dagen ICU utsläpp förutspåddes av gaussian processer REF.
14,484,525
Computerized prediction of intensive care unit discharge after cardiac surgery: development and validation of a Gaussian processes model
{'venue': 'BMC Medical Informatics and Decision Making', 'journal': 'BMC Medical Informatics and Decision Making', 'mag_field_of_study': ['Medicine', 'Computer Science']}
14,751
Parametriska modeller, och särskilt neurala nätverk, kräver vikt initialisering som en utgångspunkt för gradient-baserad optimering. I de flesta nuvarande praxis, Detta uppnås genom att använda någon form av slumpmässig initiering. I stället visar det senaste arbetet att en specifik inledande parameteruppsättning kan läras från en population av uppgifter, dvs. datauppsättning och målvariabel för övervakade inlärningsuppgifter. Med hjälp av denna inledande parameter uppsättning leder till snabbare konvergens för nya uppgifter (modell-agnostic meta-learning). För närvarande, metoder för inlärning modell initialiseringar är begränsade till en population av uppgifter som delar samma schema, dvs. samma antal, ordning, typ och semantik av prediktor och målvariabler. I detta dokument tar vi upp problemet med meta-lärande parameter initialisering över uppgifter med olika scheman, dvs. om antalet prediktorer varierar mellan uppgifter, medan de fortfarande delar vissa variabler. Vi föreslår Chameleon, en modell som lär sig att anpassa olika prediktorscheman till en gemensam representation. Vi använder permutationer och masker av förutsägarna av de träningsuppgifter som finns till hands. I experiment på verkliga datauppsättningar, visar vi att Chameleon framgångsrikt kan lära parameter initialiseringar över uppgifter med olika scheman ger en 26% lyft på noggrannhet i genomsnitt över slumpmässig initialisering och av 5% över en state-of-the-art metod för fast schema lärande modell initialiseringar. Såvitt vi vet är vår uppsats det första arbetet med problemet med inlärningsmodellens initiering över uppgifter med olika scheman.
Arbetet av Brinkmeyer och Drumond et al., Chameleon REF, inriktar sig på problemet med meta-lärande uppgifter med en variabel inmatningsschema.
203,593,625
Chameleon: Learning Model Initializations Across Tasks With Different Schemas
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
14,752
Detta dokument presenterar en konstruktionsinspecifik modell av multiword uttryck nedbrytbarhet baserat på latent semantisk analys. Vi använder latent semantisk analys för att bestämma likheten mellan ett flerordsuttryck och dess ingående ord, och hävdar att högre likheter indikerar större nedbrytbarhet. Vi testar modellen över engelska substantiv-noun föreningar och verb-partiklar, och utvärderar dess korrelation med likheter och hyponymy värden i WordNet. Baserat på genomsnittlig hyponymy över partitioner av data rankad på likhet, vi ger bevis för de beräknade likheter som korreleras med det semantiska relationsinnehållet i WordNet.
REF undersöker semantisk nedbrytbarhet av substantiv- substantiv föreningar och verbkonstruktioner.
1,695,436
An Empirical Model Of Multiword Expression Decomposability
{'venue': 'Workshop On Multiword Expressions: Analysis, Acquisition And Treatment', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,753
I detta dokument presenterar vi ett nytt tillvägagångssätt för överföring av förstärkningslärande (RL) för gränsöverskridande uppgifter. Till skillnad från tillgängliga överföringsmetoder, där måluppgiftsinlärning påskyndas genom initierad inlärning från källan, föreslår vi att man anpassar och återanvänder den optimala källpolicyn direkt inom de relaterade områdena. Vi visar den optimala policyn från en relaterad källuppgift kan vara nära optimal inom måldomänen förutsatt att en adaptiv policyredovisning för modellfelet mellan målet och den beräknade källan. En betydande fördel med den föreslagna förstärkningen av politiken är att politiken inom alla relaterade områden generaliseras utan att de nya uppgifterna behöver läras upp på nytt. Vi visar att denna arkitektur leder till bättre urvalseffektivitet vid överföringen, vilket minskar urvalets komplexitet när det gäller att lära sig måluppgifter för att nå lärlingsutbildning.
I REF införs en anpassningspolitik för att kompensera prognosfelet mellan källan och målagenterna.
27,641,548
Cross-Domain Transfer in Reinforcement Learning Using Target Apprentice
{'venue': '2018 IEEE International Conference on Robotics and Automation (ICRA)', 'journal': '2018 IEEE International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Engineering', 'Computer Science', 'Mathematics']}
14,754
Abstract-Topology kontroll i ett sensornätverk balanserar belastningen på sensornoder och ökar nätverkets skalbarhet och livslängd. Klustersensorn noder är en effektiv topologi kontroll metod. I detta dokument föreslår vi en ny distribuerad klusterstrategi för långlivade ad hoc-sensornätverk. Vårt föreslagna tillvägagångssätt gör inga antaganden om förekomsten av infrastruktur eller om nodkapacitet, förutom tillgängligheten av flera effektnivåer i sensornoder. Vi presenterar ett protokoll, HEED (Hybrid Energy-Efficient Distribuated clustering), som periodiskt väljer klusterhuvuden enligt en hybrid av noden restenergi och en sekundär parameter, såsom nod närhet till sina grannar eller nod grad. HEED avslutas i Oð1 ska iterationer, ådrar sig låga budskap overhead, och uppnår ganska enhetlig kluster huvud distribution över nätverket. Vi bevisar att, med lämpliga gränser på nodtäthet och intrakluster och intercluster överföringsintervall, kan HEED asymptotiskt säkert garantera anslutning av klustererade nätverk. Simuleringsresultat visar att vårt föreslagna tillvägagångssätt är effektivt för att förlänga nätverkets livslängd och stödja skalbar dataaggregation.
En Hybrid Energy-Efficient, Distributed Protocol (HEED) föreslogs i REF.
2,012,679
HEED: a hybrid, energy-efficient, distributed clustering approach for ad hoc sensor networks
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
14,755
Ett antal tekniker har utvecklats för att rekonstruera ytor genom att integrera grupper av anpassade avståndsbilder. En önskvärd uppsättning egenskaper för sådana algoritmer inkluderar: inkrementell uppdatering, representation av riktningsosäkerhet, förmågan att fylla luckor i återuppbyggnaden och robusthet i närvaro av avvikande faktorer. Tidigare algoritmer har undergrupper av dessa egenskaper. I denna uppsats presenterar vi en volymetrisk metod för att integrera avståndsbilder som har alla dessa egenskaper. Vår volymetriska representation består av en kumulativ viktad distansfunktion. Genom att arbeta med en räckvidd bild i taget, vi först skanna-konvertera det till en distans funktion, sedan kombinera detta med de data som redan förvärvats med hjälp av en enkel additiv schema. För att uppnå utrymme effektivitet använder vi en run-long kodning av volymen. För att uppnå tidseffektivitet, vi samplar om intervallet bilden för att anpassa sig till voxel rutnätet och passera intervallet och voxel scanlines synkront. Vi genererar det sista grenröret genom att utvinna en isoyta från det volymetriska rutnätet. Vi visar att under vissa antaganden, är denna isoytan optimal i minsta kvadrat betydelse. För att fylla luckor i modellen tessellat vi över gränserna mellan regioner som ses vara tomma och regioner aldrig observeras. Med denna metod kan vi integrera ett stort antal seriebilder (så många som 70) som ger sömlösa modeller med hög detaljrikedom på upp till 2,6 miljoner trianglar.
REF beskrev en ny algoritm för volymetrisk integration av avståndsbilder för att rekonstruera ett objekts yta baserat på en kumulativ viktad avståndsfunktion.
12,358,833
A volumetric method for building complex models from range images
{'venue': "SIGGRAPH '96", 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,756
Abstract-In the Bitcoin system, en peer-to-peer elektroniska valutasystem, fördröjningen overhead i transaktionsverifiering hindrar Bitcoin från att öka populariteten nuförtiden eftersom det gör systemet sårbart för dubbla spendera attacker. Detta papper introducerar en närhet-medveten förlängning till det nuvarande Bitcoin-protokollet, som heter Bitcoin Clustering Based Ping Time Protocol (BCBPT). Det slutliga syftet med det föreslagna protokollet, som bygger på hur kluster formuleras och noderna definierar sitt medlemskap, är att förbättra transaktionsförökning fördröjning i Bitcoin nätverket. I BCBPT ökar närheten av anslutning i Bitcoin nätverket genom att gruppera Bitcoin noder baserat på ping latens mellan noder. Vi visar, genom simuleringar, att närhetsbasen ping latency definierar bättre klusterstrukturer som optimerar prestandan för transaktionsförskjutningen. Minskningen av kostnaderna för kommunikationslänken, mätt med tiden för informationsspridning mellan noderna, betraktas främst som en viktig orsak till denna förbättring. Bitcoin Clustering Based Ping Time Protocol är effektivare på att minska transaktionsförökning fördröjning jämfört med den befintliga klustering protokoll (LBC) som vi föreslog i vårt tidigare arbete.
I REF införs en närhetsmedveten förlängning till det nuvarande Bitcoin-protokollet, som heter Bitcoin Clustering Based Ping Time Protocol (BCBPT).
8,756,500
Proximity Awareness Approach to Enhance Propagation Delay on the Bitcoin Peer-to-Peer Network
{'venue': '2017 IEEE 37th International Conference on Distributed Computing Systems (ICDCS)', 'journal': '2017 IEEE 37th International Conference on Distributed Computing Systems (ICDCS)', 'mag_field_of_study': ['Computer Science']}
14,757
I detta arbete föreslår vi en regressionsmetod för att förutsäga populariteten av en online-video mätt med dess antal vyer. Vår metod använder Support Vector Regression med Gaussian Radial Basis funktioner. Vi visar att förutsägelse av popularitetsmönster med detta tillvägagångssätt ger mer exakta och stabilare förutsägelseresultat, främst tack vare den föreslagna metodens icke-linjära karaktär samt dess robusthet. Vi bevisar överlägsenheten av vår metod mot den senaste tekniken med hjälp av dataset som innehåller nästan 24 000 videor från YouTube och Facebook. Vi visar också att med hjälp av visuella funktioner, såsom utgångar av djupa neurala nätverk eller scendynamik "mått, kan vara användbart för popularitet förutsägelse innan innehållspublicering. Dessutom visar vi att noggrannheten i popularitetsprognoserna kan förbättras genom att kombinera tidiga distributionsmönster med sociala och visuella funktioner och att sociala funktioner utgör en mycket starkare signal när det gäller video popularitetsprognoser än de visuella.
I REF presenteras en regressionsmetod baserad på stöd vektor regression med Gaussiska radial bas funktioner för att förutsäga populariteten av online-videor.
6,911,407
Predicting popularity of online videos using Support Vector Regression
{'venue': 'Transactions on Multimedia, 2017', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,758
I detta arbete presenterar vi det djup-adaptiva djupa neurala nätverket med hjälp av en djupkarta för semantisk segmentering. Typiska djupa neurala nätverk får ingångar på förutbestämda platser oavsett avståndet från kameran. Detta fasta mottagliga fält utgör en utmaning att generalisera egenskaperna hos objekt på olika avstånd i neurala nätverk. Särskilt är de förutbestämda mottagliga fälten för små på kort avstånd, och vice versa. För att övervinna denna utmaning utvecklar vi ett neuralt nätverk som kan anpassa det mottagliga fältet inte bara för varje lager utan också för varje neuron på rumsliga platser. För att justera det mottagliga fältet, föreslår vi den adaptiva perception neuronen och den i lager flerskaliga neuronen. Den adaptiva perception neuronen är att justera det mottagliga fältet på varje rumslig plats med hjälp av motsvarande djupinformation. Den i lager flerskaliga neuronen ska tillämpa den olika storleken på det mottagliga fältet vid varje funktionsutrymme för att lära sig funktioner på flera skalor. Genom kombinationen av dessa neuroner föreslår vi de tre fullständigt konvolutionella neurala nätverken. Vi visar effektiviteten av de föreslagna neurala nätverken på den nya hand segmentering dataset för hand-objekt interaktion och offentligt tillgängliga RGB-D dataset för semantisk segmentering. De experimentella resultaten visar att den föreslagna metoden överträffar de senaste metoderna utan några ytterligare lager eller för/efterbehandling.
Kang m.fl. REF har föreslagit djupadaptivt mottagligt fält i det fullt konvolutionella neurala nätverket där storleken på varje mottaglig fil har valts baserat på avståndet mellan varje punkt från kameran.
21,377,212
Depth Adaptive Deep Neural Network for Semantic Segmentation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
14,759
Katastrofrisk glömska är ett problem med neurala nätverk som förlorar informationen om den första uppgiften efter utbildning den andra uppgiften. Här föreslår vi inkrementell ögonblicksmatchning (IMM) för att lösa detta problem. IMM matchar gradvis tidpunkten för den bakre distributionen av neurala nätverk, som är utbildad för den första respektive den andra uppgiften, respektive. För att göra sökytan för bakre parametern jämn, IMM förfarandet kompletteras med olika överföring inlärningstekniker inklusive viktöverföring, L2-norm av den gamla och den nya parametern, och en variant av avhopp med den gamla parametern. Vi analyserar vår strategi på olika dataset inklusive MNIST, CIFAR-10, Caltech-UCSD-Birds, och Lifelog dataset. Experimentella resultat visar att IMM uppnår toppmoderna resultat i en mängd olika datauppsättningar och kan balansera informationen mellan ett gammalt och ett nytt nätverk.
Baserat på Bayesian neurala nätverk, REF matchar ögonblicket för bakre på båda två uppgifter för att vägleda det nya nätverket till en gemensam låg-terror region.
5,160,005
Overcoming Catastrophic Forgetting by Incremental Moment Matching
{'venue': 'NIPS', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
14,760
Diagnostiska beslut i dynamiska miljöer kräver ofta kompromisser mellan beslutsnoggrannhet och aktualitet. Ju längre ett diagnostiskt beslut skjuts upp, desto mer exaktheten i beslutet kan öka, samtidigt som sannolikheten för att framgångsrikt genomföra korrigerande åtgärder minskar. Kerstholt (1994) rapporterar att i en uppgift där en kontinuerlig process måste övervakas, ledde ämnets beroende av en domsinriktad strategi (efter att ha begärt ytterligare information innan ett beslut fattades) ofta till sena beslut. I denna studie var vi intresserade om liknande effekter skulle uppstå när motivationen att skjuta upp beslutet framkallades av möjligheten till ett larm som kom senare i rättegången. En normativ modell baserad på Bayesian tro uppdatering konstruerades för att bestämma optimala strategier under förhållandena för de oberoende variabler larm timing (tidigt, sent) och larm tillförlitlighet (0.7, 0.9). Resultaten stämmer delvis överens med tidigare studier genom att visa tecken på en omdömesinriktad strategi i låg tillförlitlighet. Men i hög tillförlitlighet, en hög andel av tidiga beslut fel, i enlighet med en handlingsinriktad strategi som gynnar beslut aktualitet över exakthet, inträffade.
Tanken att diagnostiska beslut i dynamiska miljöer ofta kräver kompromisser mellan beslutsnoggrannhet och aktualitet kommer från REF.
8,839,997
When to Act? Managing Time-Accuracy Trade-Offs in a Dynamic Belief Updating Task
{'venue': 'Proceedings of the Human Factors and Ergonomics Society Annual Meeting', 'journal': 'Proceedings of the Human Factors and Ergonomics Society Annual Meeting', 'mag_field_of_study': ['Psychology']}
14,761
Ur tillämpningssynpunkt är det lika viktigt att uppfylla tillämpningsspecifika QoS-begränsningar som att utforma energieffektiva inbyggda kretsar för WSN-noder. Bland olika WSN kommunikationsprotokoll stack, transportskikt funktionalitet har vunnit grundläggande berömmelse nyligen i att ta itu med den tillämpning specifika QoS mål genom att stödja källprioritering förutom tillförlitlighet och överbelastning kontroll aspekter av konstruktionen som hjälper till att få hög genomströmning med minsta end-to-end paket latency. I detta dokument presenteras utformningen av ett nytt transportlagerprotokoll som prioriterar känslig information baserad på dess natur och samtidigt stöder datatillförlitlighet och kontroll av överbelastning. Det föreslagna transportprotokollet testas i tre möjliga scenarier, dvs. med prioritet, utan och distribuerade prioriterade funktioner. Simuleringsresultat visar att genom att prioritera källinformationen och prioritera mellanlagring och vidarebefordran minskar End-to-End (E-2-E) latensen hos källkodspaket som har <100 msec utom för Source A där den är något högre än 400 msec jämfört med icke-prioriterade fall där E-2-E Source-paketlatency konton till >400 msec som är ganska betydande. Simuleringstest har utförts för distribuerad prioriterad mellanlagring och vidaresändning där nätverksdistributionen med nod K som prioriterad mellanlagringsnod (DIST-K) överträffade alla nämnda fall genom att ha 100% uppnått källprioritering,0% paketfallhastighet och 0,28Mbps uppnått bithastighet.
Sharif et al., REF presenterade ett nytt transportlager protokoll som prioriterar känslig information baserad på sin natur samtidigt stödja data tillförlitlighet och trängsel kontroll funktioner.
17,638,670
Prioritizing Information for Achieving QoS Control in WSN
{'venue': '2010 24th IEEE International Conference on Advanced Information Networking and Applications', 'journal': '2010 24th IEEE International Conference on Advanced Information Networking and Applications', 'mag_field_of_study': ['Computer Science']}
14,762