src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Vi presenterar en ny modell DRNET som lär sig lösa bildrepresentationer från video. Vårt tillvägagångssätt utnyttjar videons tidssammanhållning och en ny kontradiktorisk förlust för att lära sig en representation som faktoriserar varje ram till en stationär del och en temporalt varierande komponent. Den lösliga representationen kan användas för en rad olika uppgifter. Till exempel, att tillämpa en standard LSTM på tidsvariationskomponenterna möjliggör förutsägelse av framtida ramar. Vi utvärderar vår strategi på en rad syntetiska och verkliga videor, visar förmågan att konsekvent generera hundratals steg in i framtiden.
Denton m.fl. REF föreslogs för att utnyttja videofilmens tidssammanhållning och en ny kontradiktorisk förlust för att lära sig en löslig representation.
13,349,803
Unsupervised Learning of Disentangled Representations from Video
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,142
Vi presenterar en lokal funktionsdetektor som kan upptäcka regioner av godtycklig skala och form, utan skalan rymdkonstruktion. Vi beräknar en viktad avståndskarta på bildgradienten med hjälp av vår exakta linjärtidsalgoritm, en variant av gruppmarsch för Euclidean utrymme. Vi hittar den viktade medialaxeln genom att förlänga rester, som vanligtvis används i Voronoi skelett. Vi sönderdela medialaxeln i en graf som representerar bildstrukturen i termer av toppar och sadelpunkter. En dualitetsegendom gör det möjligt att återuppbygga regioner med samma marschmetod. Vi grupperar girigt regioner som tar hänsyn till både kontrast och form. På vägen utväljer vi regioner efter vår formfragmenteringsfaktor, vilket gynnar dem som är väl avgränsade av gränser – till och med ofullständiga. Vi uppnår toppmodern prestanda i matchnings- och hämtningsexperiment med reducerade minnes- och beräkningskrav.
Avrithis m.fl. beräkna den viktade medelaxeln, dela upp den i meningsfulla delar och gruppera regioner genom att ta både kontrast och form i beaktande REF.
595,420
The medial feature detector: Stable regions from image boundaries
{'venue': '2011 International Conference on Computer Vision', 'journal': '2011 International Conference on Computer Vision', 'mag_field_of_study': ['Computer Science']}
2,143
Abstract-Multiuser orthogonal frekvensdelning multiplexing (OFDM) med adaptive multiuser subcarrier allocation och adaptiv modulering beaktas. Förutsatt kunskap om de momentana kanalvinster för alla användare, föreslår vi en multianvändare OFDM subcarrier, bit, och effektalgoritm för att minimera den totala sändningskraften. Detta görs genom att tilldela varje användare en uppsättning undertransportörer och genom att bestämma antalet bitar och sändningseffektnivån för varje undertransportör. Vi får prestanda av vår föreslagna algoritm i en fleranvändarfrekvens selektiv blekning miljö för olika tidsfördröjning spridning värden och olika antal användare. Resultaten visar att vår föreslagna algoritm överträffar multianvändare OFDM-system med statisk tidsdelningsmultipelåtkomst (TDMA) eller frekvensdelningsmultiple access (FDMA) tekniker som använder fast och förutbestämd tidsdelning eller subcarrier fördelningssystem. Vi har också kvantifierat förbättringen när det gäller den totala sändningseffekt som krävs, bit-terrorfrekvensen (Ber), eller täckningsområdet för en given avbrottsannolikhet. Index Terms-Adaptive modulation, frekvensselektiv blekning kanal, multiaccess kommunikation, fleranvändarkanal, ortogonal frekvensdelning multiplexing (OFDM), resurshantering.
Wong m.fl. REF föreslår en fleranvändar-, flersubcarrier-, bit- och kraftfördelningsalgoritm, som syftar till att minimera den totala strömförbrukningen.
7,620,348
Multiuser OFDM with Adaptive Subcarrier, Bit, and Power Allocation
{'venue': 'IEEE Journal on Selected Areas of Communications', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,144
På senare tid har betydande insatser gjorts för djup domänanpassning i datorvisions- och maskininlärningssamhällen. Det mesta av det befintliga arbetet koncentrerar sig dock bara på att lära sig en gemensam funktionsrepresentation genom att minimera skillnaderna mellan olika områden. På grund av det faktum att alla domänanpassningar endast kan minska, men inte ta bort domänbytet, är måldomänprover som distribueras nära kanten av kluster, eller långt från deras motsvarande klasscenter lätt att felklassificeras av hyperplanet lärt sig från källdomänen. För att mildra denna fråga föreslår vi att man gemensamt anpassar domänerna till varandra och lär sig olika funktioner, vilket skulle kunna gynna både områdesanpassningen och den slutliga klassificeringen. Särskilt föreslås en instans-baserad discriminativ funktion inlärningsmetod och en center-baserad discriminativ funktion inlärningsmetod, som båda garanterar domänen invarianta funktioner med bättre intra-klass kompaktitet och mellanklass separerbarhet. Omfattande experiment visar att kunskap om de diskriminerande egenskaperna i det delade funktionsutrymmet avsevärt kan öka prestandan hos metoder för djupdomänanpassning.
Gemensam anpassning av de olika domänerna (JDDA) I REF föreslås en anpassning av de gemensamma domänerna tillsammans med diskriminativ inlärning.
52,115,042
Joint Domain Alignment and Discriminative Feature Learning for Unsupervised Deep Domain Adaptation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,145
Motiverad av integritets- och användbarhetskrav i olika scenarier där befintliga kryptografiska verktyg (som säker multipartsberäkning och funktionell kryptering) inte är tillräckliga, introducerar vi ett nytt kryptografiskt verktyg som kallas Controlled Functional Encryption (C-FE). Som i funktionell kryptering, C-FE tillåter en användare (klient) att lära sig endast vissa funktioner av krypterade data, med hjälp av nycklar som erhållits från en myndighet. Men vi tillåter (och kräver) kunden att skicka en ny nyckel begäran till myndigheten varje gång den vill utvärdera en funktion på en chiffertext. Vi får effektiva lösningar genom att noggrant kombinera CCA2 säker offentlig nyckel kryptering (eller rerandomizable RCCA säker offentlig nyckel kryptering, beroende på vilken typ av säkerhet som önskas) med Yaos förvrängda krets. Våra huvudsakliga bidrag i detta arbete inkluderar att utveckla och formellt definiera begreppet C-FE; utforma teoretiska och praktiska konstruktioner av C-FE system som uppnår dessa definitioner för specifika och allmänna klasser av funktioner; och utvärdera prestandan av våra konstruktioner på olika tillämpningsscenarier.
Slutligen, REF införa en primitiv kallas Kontrollerad Funktionell Kryptering (C-FE) och använda den för att låta individer tillåta användning av sina genetiska data för specifika forskningsändamål.
3,081,201
Controlled Functional Encryption
{'venue': "CCS '14", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,146
Abstract Real world data mining applikationer måste ta itu med frågan om lärande från obalanserade datamängder. Problemet uppstår när antalet fall i en klass i hög grad överträffar antalet fall i den andra klassen. Sådana datauppsättningar orsakar ofta att en standardklassificerare byggs på grund av skev vektorrymd eller brist på information. Gemensamma tillvägagångssätt för att hantera problemet med obalans i klass innebär att datadistributionen ändras eller klassificeringen ändras. I detta arbete väljer vi att använda en kombination av båda tillvägagångssätten. Vi använder stödvektormaskiner med mjuka marginaler som basklassare för att lösa problemet med snedvektorrymder. Vi motverkar sedan den överdrivna partiskhet som införs genom detta tillvägagångssätt med en förstärkande algoritm. Vi fann att denna ensemble av SVMs gör en imponerande förbättring i förutsägelse prestanda, inte bara för majoritetsklassen, men också för minoritetsklassen.
Wang och Japkowicz REF kombinerar ändring av datadistributionsmetoden och ändring av klassificeringsmetoden i klass-obalanserade problem och använder stödvektormaskiner med mjuka marginaler som basklassare för att lösa problemet med snedvektorrymder.
1,432,305
Boosting support vector machines for imbalanced data sets
{'venue': 'Knowledge and Information Systems', 'journal': 'Knowledge and Information Systems', 'mag_field_of_study': ['Computer Science']}
2,147
Lokal gemensam bildmodellering i stereomatchning ger mer diskriminerande och stabila matchande funktioner. Sådana funktioner minskar behovet av starka tidigare modeller (kontinuitet) och därmed algoritmer som är mindre benägna att falska positiva artefakter i allmänna komplexa scener kan tillämpas. En av de viktigaste kvalitetsfaktorerna i områdesbaserad tät stereo är den matchande fönsterformen. Eftersom den inte kan väljas utan att ha någon första matchningshypotes föreslår vi en stratifierad matchningsmetod. Fönstret anpassar sig till högkorrelationsstrukturer i skillnad utrymme som finns i förmatchning som sedan följs av slutlig matchning. I ett rigoröst jord-sanning experiment visar vi att Stratified Dense Matching kan öka matchande densitet 3×, matchande noggrannhet 1,8×, och ocklusion gränsdetektion 2× jämfört med en fast storlek rektangulära fönster algoritm. Föreställning på verkliga utomhus komplexa scener utvärderas också.
I det stratifierade tillvägagångssätt som föreslås av Kostková och Sára Ref anpassas stödet till högkorrelationsstruktur i skillnadsutrymme som bestäms av ett förmatchningssteg.
15,456,612
Stratified dense matching for stereopsis in complex scenes
{'venue': 'In Proc BMVC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,148
I detta brev undersöker vi nedlänkprestandan hos massiva multiple-input multiple-output-system (MIMO) där basstationen är utrustad med en bit analog-till-digital/digital-till-analog-omvandlare (ADC/DAC). Vi antar att basstationen använder den linjära minsta medel-kvadrat-terror kanal estimator och behandlar kanalen uppskattning som den sanna kanalen för att förkoda datasymbolerna. Vi härleder ett uttryck för nedlänken uppnåelig hastighet för matchad-filter förkodning. En detaljerad analys av den resulterande effekteffektiviteten görs med hjälp av vårt uttryck för den uppnåeliga hastigheten. Numeriska resultat presenteras för att verifiera vår analys. I synnerhet visas det att jämfört med konventionella massiva MIMO-system, kan prestandaförlusten i en bit massiva MIMO-system kompenseras genom att distribuera cirka 2,5 gånger fler antenner vid BS. Index Terms-Massive MIMO, en bit kvantisering, nedlänkhastighet, MF förkodning. M ASSIVE MIMO är en ny teknik som kan skala upp prestandan hos konventionella MIMO genom storleksordningar. Det har visats att, med en basstation (BS) utrustad med ett mycket stort antal antenner, inte bara kan spektral effektivitet och energieffektivitet avsevärt förbättras genom användning av enkla linjära signalbehandlingstekniker, men också inverkan av brister i hårdvaruimplementeringen kan minskas [1], [2]. De flesta tidigare arbeten har antagit att varje antenn element i den massiva MIMO-systemet är utrustad med en kostsam högupplösning DAC, och därmed har försummat den icke-linjära effekten av kvantiseringen. Kostnaden för att använda högupplösta DACs är hanterbar i konventionella MIMO-system eftersom antalet Manuscript
För det enklaste fallet att den massiva MU-MIMO är utplacerade med 1-bitars ADCs eller DACs, har det visats i en nyligen genomförd studie REF att, jämfört med massiva MIMO-system med idealiska DACs, den totala förlusten i 1-bitars massiva MU-MIMO system kan kompenseras genom att bortskaffa cirka 2,5 gånger fler antenner vid BS.
723,571
Downlink Achievable Rate Analysis in Massive MIMO Systems With One-Bit DACs
{'venue': 'IEEE Communications Letters', 'journal': 'IEEE Communications Letters', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,149
I detta applikationspapper förklarar vi det arbetsflöde vi använder för att skapa immersiva visualiseringar och rumslig interaktion för geofysiska data med en huvudmonterad enhet (HMD). De data som vi analyserar består av tvådimensionella geografiska kartdata och råa geofysiska mätningar med apparater som seismometrar, elektrisk resistivitet Tomografi (ERT) och seismiska tomografiprofiler samt andra geofysiska och geovetenskapliga data. Vi visar verktygskedjan som vi använder när vi förklarar de val vi gjorde på vägen. Den tekniska beskrivningen kommer att följas av en kort bedömning av den ytterligare fördelen med att göra våra data i virtuell verklighet (VR). Efter den tekniska beskrivningen avslutar vi detta dokument med en del perspektiv på (sannolikt) framtida användning av VR inom geovetenskapen.
Cerfontaine et al in REF presenterade arbetsflödet som används för att skapa uppslukande visualiseringar och rumslig interaktion för geofysiska data med huvudmonterade enheter.
7,183,001
Immersive visualization of geophysical data
{'venue': '2016 International Conference on 3D Imaging (IC3D)', 'journal': '2016 International Conference on 3D Imaging (IC3D)', 'mag_field_of_study': ['Geography', 'Computer Science']}
2,150
När flera berörda parter försöker optimera en gemensam objektiv funktion på ett distribuerat sätt är det nödvändigt med en samordningsmekanism. Detta bidrag presenterar en formell modell av distribuerade kombinatoriska optimeringsproblem. Därefter introduceras en heuristisk, som använder sig av självorganiserande mekanismer för att optimera ett gemensamt globalt mål samt enskilda lokala mål på ett helt decentraliserat sätt. Denna heuristiska, COHDA 2, implementeras i ett asynkront multiagentsystem, och utvärderas i stor utsträckning med hjälp av ett verkligt problem från det smarta nätet domän. Vi ger insyn i konvergensprocessen och visar att COHDA 2 är robust mot ostadiga kommunikationsnät. Vi visar att COHDA 2 är en mycket effektiv decentraliserad heuristisk som kan hantera ett distribuerat kombinatoriellt optimeringsproblem med avseende på flera lokala objektiva funktioner, samt en gemensam global objektiv funktion, utan att vara beroende av centralt samlad kunskap.
I REF har ett helt decentraliserat agentbaserat tillvägagångssätt för kombinatoriska optimeringsproblem införts.
16,894,316
Evaluation of a Self-organizing Heuristic for Interdependent Distributed Search Spaces.
{'venue': 'ICAART', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,151
Abstract-distans bundna protokoll kan mäta en säker övre gräns till avståndet mellan två enheter. De är utformade för att motstå att minska attacker, vars mål är att minska det uppmätta avståndet. I detta dokument fokuserar vi på det motsatta problemet, utvidgningsattacken, som syftar till att utvidga det uppmätta avståndet. Vi analyserar genomförbarheten av utvidgningsattacker genom att överskugga strategier på 802.15.4a UWB-protokoll. Vi visar att överskuggningsstrategierna, som i allmänhet anses genomförbara i den befintliga litteraturen, faktiskt är svåra att genomföra. Beroende på den försening som motståndaren har infört finns det fall där de inte har någon effekt eller deras effekt inte kan kontrolleras. Index Terms-Distans begränsning, IEEE 802.15.4a, distansförstoring attacker, överskugga attacker.
Taponecco m.fl. REF visar att framgången för utvidgningsattacker med repris (eller överskuggning) beror på hur mycket försening motståndaren inför.
7,916,633
On the Feasibility of Overshadow Enlargement Attack on IEEE 802.15.4a Distance Bounding
{'venue': 'IEEE Communications Letters', 'journal': 'IEEE Communications Letters', 'mag_field_of_study': ['Computer Science']}
2,152
Detta papper beskriver extremt opportunistiska routing (ExOR), en ny unicast routingteknik för trådlösa multi-hop-nätverk. ExOR vidarebefordrar varje paket genom en sekvens av noder och skjuter upp valet av varje nod i sekvensen tills den föregående noden har överfört paketet på sin radio. ExOR bestämmer sedan vilken nod, av alla noder som framgångsrikt fått denna överföring, är noden närmast destinationen. Den närmaste noden sänder paketet. Resultatet blir att varje humle flyttar paketet längre (i genomsnitt) än humlet på bästa möjliga förutbestämda rutt. ExOR-designen tar upp utmaningen att välja en vidarebefordrande nod efter överföring med hjälp av en distribuerad algoritm. För det första, när en nod sänder ett paket, innehåller den i paketet ett enkelt schema som beskriver den prioritetsordning i vilken de potentiella mottagarna ska vidarebefordra paketet. Noden beräknar schemat baserat på delade mätningar av internode leveranshastigheter. ExOR använder sedan en distribuerad slotted MAC-protokoll för erkännanden för att säkerställa att mottagarna är överens om vem den högsta prioritet mottagaren var. Effekten av ExOR beror främst på i vilken takt mottagningssannolikheten faller av med avstånd. Simuleringar baserade på uppmätta radioegenskaper [6] tyder på att ExOR minskar det totala antalet sändningar med nästan en faktor på två över bästa möjliga förutbestämda rutt.
I Extremely Opportunistic Routing (ExOR) REF sänder en nod sina data till en uppsättning potentiella reläer.
8,559,476
Opportunistic routing in multi-hop wireless networks
{'venue': 'CCRV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,153
Horisontlinjen är en viktig egenskap för ett brett utbud av bildförståelseuppgifter. Som sådan har många metoder införts för att uppskatta horisonten linje från en enda bild, främst geometriska metoder som antar närvaron av specifika signaler i scenen (t.ex. försvinner punkter). Dessa rent geometriska metoder är begränsade i sin verkliga förmåga, kräver omfattande inställning, och testas på riktmärkesdata som är utformade för att visa upp deras förmåga. Vi introducerar ett stort, realistiskt utvärderingsdataset, Horizon Lines in the Wild (HLW), som innehåller naturliga bilder med märkta horisontlinjer.
Arbetare m.fl. Ref går längre och direkt uppskattar horisontlinjen i den enda bilden.
6,254,563
Horizon Lines in the Wild
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
2,154
Abstract-misslyckande detektion spelar en central roll i konstruktionen av distribuerade system. Dessutom har många applikationer tidsbegränsningar och kräver feldetektorer som ger servicekvalitet (QoS) med vissa kvantitativa tidsgarantier. Därför behöver de feldetektorer som är snabba och korrekta. Vi introducerar två Windows Misslyckande Detector (2W-FD), en algoritm som ger QoS och kan reagera på plötsliga förändringar i nätverksförhållandena, en egenskap som för närvarande befintliga algoritmer inte uppfyller. Vi gjorde tester på riktiga spår och jämförde 2W-FD med toppmoderna algoritmer. Våra resultat visar att vår algoritm presenterar den bästa prestandan när det gäller hastighet och noggrannhet i instabila scenarier.
Tomsic m.fl. REF införde en feldetekteringsalgoritm som ger QoS och anpassar sig till plötsliga förändringar i instabila nätverksscenarier.
15,383,655
2W-FD: A Failure Detector Algorithm with QoS
{'venue': '2015 IEEE International Parallel and Distributed Processing Symposium', 'journal': '2015 IEEE International Parallel and Distributed Processing Symposium', 'mag_field_of_study': ['Computer Science']}
2,155
Vi anser, i den moderna inställningen av högdimensionell statistik, det klassiska problemet med att optimera den objektiva funktionen i regression med hjälp av M-uppskattningar när felfördelningen antas vara känd. Vi föreslår en algoritm för att beräkna denna optimala objektiv funktion som tar hänsyn till problemets dimensionalitet. Även om optimalitet uppnås under antaganden om designmatrisen som inte alltid kommer att vara nöjd, avslöjar vår analys i allmänhet intressanta familjer av dimensionsberoende objektiva funktioner. robust regression på prox funktion I n denna artikel, studerar vi ett klassiskt statistiskt problem: hur man plockar optimalt (bland regression M-skattningar) målet att minimeras i en parametrisk regression när vi vet felfördelningen. Vår studie genomförs i modern miljö där antalet prediktorer står i proportion till antalet observationer. Det klassiska svaret på det problem vi ställde i början, maximal sannolikhet, gavs av Fisher (1) i det specifika fallet med multinomala modeller och därefter på efterföljande generalitetsnivåer av Cramér (2), Hájek (3) och, framför allt, Le Cam (4). Till exempel, för p fast eller p=n → 0 snabb nog, minst kvadrater är optimal för Gaussiska fel, medan minst absoluta avvikelser (LAD) är optimal för dubbelexponentiella fel. Vi ska visa att detta inte längre är sant i den ordning vi överväger med svaret beroende på, i allmänhet, gränsvärdet för förhållandet p=n samt formen för felfördelningen. Vår analys i detta papper utförs i inställningen av Gaussian prediktorer, även om som vi förklarar nedan, detta antagande bör vara avslappnad till en situation där fördelningen av prediktorer uppfyller vissa koncentrationsegenskaper för kvadratiska former. Vi utför vår analys i en regim som i huvudsak har outforskats, nämligen 0 p=n < 1, där p är antalet prediktorvariabler och n är antalet oberoende observationer. Eftersom i de flesta tillämpningsområden, situationer där p såväl som n är stora har blivit avgörande, har det funnits en enorm mängd litteratur om fallet där p=n 0 men antalet "relevanta" prediktorer är liten. I detta fall har den objektiva funktionen, quadratic (minst kvadrater) eller på annat sätt (l 1 för LAD) ändrats till att omfatta en påföljd (vanligtvis l 1 ) på regressionskoefficienterna, som tvingar gleshet (5). Det pris som betalas för denna ändring är att uppskattningar av individuella koefficienter är allvarligt partiska och statistiska slutsatser, i motsats till förutsägelser, ofta blir problematiska. I domarens namn. 6, visade vi † att detta pris inte behöver betalas om p=n stannar avgränsade från 1, även om regressionen inte har en gles representation. Vi går igenom de viktigaste teoretiska resultaten från denna tidigare uppsats i Resultat 1 nedan. Några av våra viktigaste resultat var följande: (i) Överraskande, när 0 p=n < 1 - e, är det inte längre sant att LAD är nödvändigtvis bättre än minst kvadrater för tung-tailed fel. Detta beteende är olikt det i den klassiska regimen p avgränsade eller p=n → 0 snabbt nog studerade, till exempel, i ref. 7. Vad är det som händer? (ii) Linjära kombinationer av regressionskoefficienter är opartiska och fortfarande asymptotiskt Gaussian i takt med 1= fffffffi n p. Denna artikel innehåller tre huvuddelar: Bakgrund och Huvudresultat innehåller nödvändig bakgrund och en beskrivning av våra resultat. I Computing det optimala målet ger vi två exempel på intresse för statistiker: fallet med Gaussiska fel och fallet med dubbelexponentiella fel. Vi presenterar våra härledningar i den sista delen. Vi anser att ett problem där vi observerar n oberoende, identiskt fördelade par ðX i ; Y i till, där X i är en p-dimensionell vektor av prediktorer, och Y i är en skalar svar. Vi kallar problemet för högdimensionellt när förhållandet p=n inte är nära 0. I själva verket överväger vi en asymptotisk miljö där lim inf p=n inte är 0. Vi begränsar oss också till det fall där lim sup p=n < 1. Så vitt vi vet har allt det mycket stora arbetet utvecklats i robust regression (efter ref. 7) är bekymrad över situationer där p=n tenderar till 0, eftersom n tenderar till oändlighet. Låt oss helt kort påminna om detaljerna i det robusta regressionsproblemet. Vi anser att uppskattningen
För det speciella fallet av unregularized M-skattning (σ 1⁄4 0), felet q s och formen av den optimala förlustfunktionen karakteriserades i ett nyligen utfört arbete REF, med hjälp av matematiska argument som påminner om hålrumsmetoden i statistisk fysik.
34,226,572
Optimal M-estimation in high-dimensional regression
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Medicine', 'Mathematics']}
2,156
Abstrakt. Vi studerar beslutsproblem för parameteriserad verifiering av protokoll för ad hoc-nätverk. Det problem vi anser vara kontrollstatstillgänglighet för nätverk av godtycklig storlek. Vi begränsar vår analys till topologier som approximerar begreppet kluster (grafer med begränsad diameter) ofta används i ad hoc-nätverk för att optimera sändningskommunikation. I synnerhet är vi intresserade av klasser av grafer som inkluderar åtminstone klichéer av godtycklig ordning. Vi visar att även om det är decibelt, är kontrolltillståndets räckvidd över kliquer redan Ackermannhard och studerar mer sofistikerade topologier för vilka problemet fortfarande är decledable.
I synnerhet ansåg samma författare i REF att Ad Hoc Networks hade en begränsad och djupgående underklass.
10,335,594
On the power of cliques in the parameterized verification of Ad Hoc networks
{'venue': 'FoSSaCS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,157
Sammanfattning av denna webbsida: Routing in cognitive radio ad hoc networks (CRAHNs) är en skrämmande uppgift på grund av dynamisk topologi, intermittent konnektivitet, spektrum heterogenitet och energibegränsningar. Andra viktiga aspekter, såsom kanalstabilitet, vägsäkerhet och frekvens för upptäckt av rutter, bör också utnyttjas. Flera routingprotokoll har föreslagits för CRAHN i litteraturen. Genom att betona en av aspekterna mer än någon annan uppfyller de dock inte alla krav på genomströmning, energieffektivitet och robusthet. I detta dokument föreslår vi ett energieffektivt och robust multipatrouting (ERMR) protokoll för CRAHNs genom att beakta alla framträdande aspekter, inklusive restenergi och kanalstabilitet i design. Även när den nuvarande routing sökvägen misslyckas, den alternativa routing sökvägen används omedelbart. Vid upprättandet av primära och alternativa ruttvägar utnyttjas både kvarvarande energi och kanalstabilitet samtidigt. Vår simuleringsstudie visar att den föreslagna ERMR överträffar det konventionella protokollet när det gäller nätgenomströmning, paketleveransförhållande, energiförbrukning och end-to-end fördröjning.
Kishor Singh m.fl. REF undersökte ett energieffektivt protokoll kallat energieffektivt och robust multipatrouting (ERMR)protokoll för ad hoc-nät.
820,205
An Energy-Efficient and Robust Multipath Routing Protocol for Cognitive Radio Ad Hoc Networks
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
2,158
Sammanfattning av denna webbsida: Empilate cognition antyder att komplexa kognitiva egenskaper endast kan uppstå när agenter har en kropp belägen i världen. De aspekter av förkroppsligande och belägenhet diskuteras här ur linjära systemteorins perspektiv. Detta perspektiv behandlar kroppar som dynamiska, tidsmässigt variabla enheter, som kan utvidgas (eller begränsas) vid sina gränser. Vi visar hur aktiva agenter till exempel aktivt kan förlänga sin kropp under en tid genom att införliva förutsägbart bete sig delar av världen och hur detta påverkar överföringsfunktionerna. Vi föreslår att primater i stor utsträckning har bemästrat detta i allt större utsträckning genom att dela upp sin värld i förutsägbara och oförutsägbara enheter. Vi hävdar att tillfällig kroppsförlängning kan ha varit avgörande för att bana vägen för utvecklingen högre kognitiv komplexitet eftersom det på ett tillförlitligt sätt breddar orsak-effekt horisont om åtgärder av agenten. Ett första robotexperiment är skissat för att stödja dessa idéer. Vi fortsätter att diskutera begreppet Object-Action Complexes (OAC) som införts av det europeiska PACO-PLUS-konsortiet för att betona att för en kognitiv agent är objekt och handlingar oskiljaktigt sammanflätade. I ett annat robotexperiment utformar vi en halvövervakad procedur med hjälp av OAC-konceptet för att visa hur en agent kan förvärva kunskap om sin värld. Här ligger idén om att förutse förändringar i grunden bakom det genomförda förfarandet och vi försöker visa hur detta koncept kan användas för att förbättra robotens inre modell och beteende. Därför har vi i den här artikeln försökt visa hur förutsägbarhet kan användas för att öka agentens kropp och för att förvärva kunskap om den yttre världen, eventuellt leder till mer avancerade kognitiva egenskaper.
Vissa av dessa verk hänvisar till ett koncept som kallas "Object-Action-Complexes" REF, där det står att objekt och åtgärder är beroende av varandra.
8,489,933
Cognitive agents - a procedural perspective relying on the predictability of Object-Action-Complexes (OACs)
{'venue': 'Robotics Auton. Syst.', 'journal': 'Robotics Auton. Syst.', 'mag_field_of_study': ['Computer Science']}
2,159
Abstract-Multilayer diagram används ofta för att representera olika relationer mellan enheter och hantera heterogena databehandlingsuppgifter. Icke-standardiserade multilayer graf klustering metoder behövs för att tilldela kluster till en gemensam multilayer nod set och för att kombinera information från varje lager. Detta papper presenterar en multilayer spektral graf klustering (SGC) ram som utför konvex lageraggregation. Under en flerskiktssignalplus-bullermodell tillhandahåller vi en fasövergångsanalys av klustersäkerhet. Dessutom använder vi fasövergångskriteriet för att föreslå en flerskikts iterativ modellorderalgoritm (MIMOSA) för flerskikts SGC, som har automatiserad klustertilldelning och lagerviktsanpassning, och ger statistiska klustersäkerhetsgarantier. Numeriska simuleringar på syntetiska flerskiktsgrafer verifierar fasövergångsanalys, och experiment på verkliga flerskiktsgrafer visar att MIMOSA är konkurrenskraftig eller bättre än andra klustermetoder.
Nyligen har författarna i REF föreslagit en flerlagers klusteralgoritm för lageraggregation.
11,240,963
Multilayer Spectral Graph Clustering via Convex Layer Aggregation: Theory and Algorithms
{'venue': 'IEEE Transactions on Signal and Information Processing over Networks', 'journal': 'IEEE Transactions on Signal and Information Processing over Networks', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,160
Sammanfattning-Detta dokument presenterar en ny ram för slutförande av saknade information på grundval av lokala strukturer. Det utgör uppgiften att slutföra som ett globalt optimeringsproblem med en väldefinierad objektiv funktion och härleder en ny algoritm för att optimera den. De värden som saknas är begränsade till att bilda sammanhängande strukturer med avseende på referensexempel. Vi tillämpar denna metod för rum-tid slutförande av stora rum-tid "hål" i videosekvenser av komplexa dynamiska scener. De saknade delarna fylls i genom provtagning av spatiotemporala patchar från de tillgängliga delarna av videon, samtidigt som global spatiotemporalkonsistens upprätthålls mellan alla patchar i och runt hålet. Den konsekventa slutförandet av statiska scendelar samtidigt med dynamiska beteenden leder till realistiska ser videosekvenser och bilder. Rymdtid video slutförande är användbart för en mängd olika uppgifter, inklusive, men inte begränsat till: 1) Sofistikerad video borttagning (av oönskade statiska eller dynamiska objekt) genom att fylla i lämplig statisk eller dynamisk bakgrundsinformation. 2) Rättning av saknade/korrupta videoramar i gamla filmer. 3) Ändra en visuell berättelse genom att ersätta oönskade element. 4) Skapande av videotexturer genom att utvidga de mindre. 5) Skapande av komplett synfält stabiliserad video. 6) Eftersom bilder är en-ram video, använder vi metoden för detta speciella fall också.
Wexler m.fl. REF anser att videoinpainting-uppgiften är ett globalt optimeringsproblem som alla saknade delar kan fyllas i med patchar från de tillgängliga delarna av videon med påtvingad global spatio-temporal konsistens.
11,891,609
Space-Time Completion of Video
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Medicine', 'Computer Science']}
2,161
Abstract-Snakes, eller aktiva konturer, används i stor utsträckning i datorseende och bildbehandling program, särskilt för att lokalisera objekt gränser. Problem i samband med initiering och dålig konvergens till gränskonkaviteter har emellertid begränsat deras nytta. I detta dokument presenteras en ny yttre kraft för aktiva konturer, som till stor del löser båda problemen. Denna yttre kraft, som vi kallar gradientvektorflöde (GVF), beräknas som en diffusion av gradientvektorerna på en grå-nivå eller binär kantkarta som härleds från bilden. Det skiljer sig i grunden från traditionella orm yttre krafter genom att det inte kan skrivas som den negativa lutningen av en potentiell funktion, och motsvarande orm är formulerad direkt från en kraft balans villkor snarare än en variationsmässig formulering. Med hjälp av flera tvådimensionella (2-D) exempel och ett tredimensionellt (3-D) exempel visar vi att GVF har ett stort fångstområde och kan flytta ormar till gränskonkaviteter.
Xu och Prince definierade gradientvektorflödet som den yttre kraften för utvecklingen av aktiv kontur REF.
6,175,091
Snakes , Shapes , and Gradient Vector Flow
{'venue': 'ICONIP', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']}
2,162
Skalbarhet sägs vara en av de största fördelarna med molnet paradigm och mer specifikt den som gör det annorlunda till en "avancerad outsourcing" lösning. Det finns dock några viktiga väntande frågor innan den drömd automatiserade skalning för applikationer går i uppfyllelse. I detta dokument presenteras de mest anmärkningsvärda initiativen mot fullständig skalbarhet i molnmiljöer. Vi presenterar relevanta insatser i utkanten av toppmodern teknik, vilket ger en omfattande översikt över de trender de följer. Vi lyfter också fram väntande utmaningar som sannolikt kommer att hanteras i nya forskningsinsatser och presentera ett idealiskt skalbart molnsystem.
En litteraturstudie om utmaningarna med att skala hela applikationer i molnmiljöer presenteras i REF, tillsammans med en översikt över toppmoderna insatser mot detta mål.
12,798,947
Dynamically scaling applications in the cloud
{'venue': 'CCRV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,163
Konvolutionella neurala nätverk är uppbyggda på convolution operation, som extraherar informativa funktioner genom att samla rumslig och kanalvis information tillsammans inom lokala mottagliga fält. För att öka ett näts representationskraft har flera nya metoder visat fördelarna med att förbättra den rumsliga kodningen. I detta arbete fokuserar vi på kanalförhållandet och föreslår en ny arkitektonisk enhet, som vi kallar "Squeezeand-excitation" (SE), som adaptivt omkalibrerar kanalmässigt funktionssvar genom att explicit modellera inbördes beroenden mellan kanaler. Vi visar att vi genom att stapla dessa block tillsammans kan konstruera SENet-arkitekturer som generaliserar extremt bra över utmanande datauppsättningar. Avgörande är att SE block producerar betydande prestandaförbättringar för befintliga toppmoderna djupa arkitekturer till minimal extra beräkningskostnad. SENets utgjorde grunden för vår ILSVRC 2017 klassificering ansökan som vann första plats och avsevärt minskade top-5 felet till 2.251%, uppnå en 25% relativ förbättring jämfört med det vinnande bidraget 2016. Kod och modeller finns på https: //github.com/hujie-frank/SENet.
Hu m.fl. REF introducerar en kanalvis uppmärksamhetsmekanism genom ett tryck-och-exciteringsblock (SE) för att modulera kanalmässigt funktionssvar för bildklassificering.
206,597,034
Squeeze-and-Excitation Networks
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
2,164
Sammanfattning av denna webbsida: Artikeln återbesöker rumslig interaktion och avståndsförfall från perspektivet mänskliga rörlighetsmönster och rumsligt inbäddade nätverk baserade på en empirisk datauppsättning. Vi extraherar rikstäckande inter-urban rörelser i Kina från en check-in data som täcker en halv miljon individer och 370 städer för att analysera de underliggande mönster av resor och rumsliga interaktioner. Genom att montera gravitationsmodellen, finner vi att de observerade rumsliga interaktionerna styrs av en kraft lag avstånd förfall effekt. Den erhållna gravitationsmodellen återger också väl den exponentiella fördelningen av färdförskjutningar. Men på grund av den ekologiska villfarelsen kanske en individs rörelse inte lyder samma avståndseffekt. Vi bygger också ett rumsligt nätverk där kantvikterna betecknar interaktionsstyrkorna. De samhällen som upptäcks från nätverket är rumsligt anslutna och i stort sett förenliga med provinsgränserna. Vi tillskriver detta mönster olika avstånd sönderfall parametrar mellan intra-province och inter-province resor.
REF extraherade rikstäckande interurban rörelser i Kina från en check-in dataset som täcker en halv miljon individer och 370 städer för att analysera de underliggande mönster av resor och rumsliga interaktioner.
5,981,831
Uncovering patterns of inter-urban trip and spatial interaction from social media check-in data
{'venue': 'PLoS ONE 9(1): e86026', 'journal': None, 'mag_field_of_study': ['Medicine', 'Computer Science', 'Physics', 'Mathematics']}
2,165
Abstract-Collision undvikande är en av de svåraste och mest utmanande automatisk körning inom området intelligenta fordon. I nödsituationer är det mer sannolikt att mänskliga förare bromsar än att styra, även om den optimala manövern oftare skulle vara att styra ensam. I detta uttalande föreslås användning av automatisk styrning som en lovande lösning för att undvika olyckor i framtiden. Syftet med detta dokument är att tillhandahålla ett system för undvikande av kollisioner (CAS) för autonoma fordon, med fokus på undvikande av kollisioner med fotgängare. Detektionskomponenten omfattar ett stereovisionsbaserat detektionssystem för fotgängare som ger lämpliga mätningar av tiden för kollision. Den kollisionsundvikande manövern utförs med fuzzy styrenheter för de ställdon som efterliknar mänskligt beteende och reaktioner, tillsammans med en hög precision Global Positioning System (GPS), som ger den information som behövs för den autonoma navigeringen. Det föreslagna systemet utvärderas i två steg. För det första studeras förarens beteende och sensornoggrannhet i experiment som utförs genom manuell körning. Denna studie kommer att användas för att definiera parametrarna för det andra steget, där automatiskt undvikande av kollisioner med fotgängare utförs i hastigheter upp till 30 km/h. De utförda fälttesten gav uppmuntrande resultat och visade att det föreslagna tillvägagångssättet var lönsamt.
I REF utförs kollisionsmanövern med fuzzy styrenheter för AVs för att härma mänskligt beteende och reaktioner.
7,419,314
Autonomous Pedestrian Collision Avoidance Using a Fuzzy Steering Controller
{'venue': 'IEEE Transactions on Intelligent Transportation Systems', 'journal': 'IEEE Transactions on Intelligent Transportation Systems', 'mag_field_of_study': ['Computer Science', 'Engineering']}
2,166
I detta dokument överväger vi problemet med den logiska karakteriseringen av begreppet konsekvent svar i en relationsdatabas som kan bryta mot givna integritetsbegränsningar. Detta begrepp fångas i termer av de möjliga reparerade versionerna av databasen. En rnethod för att beräkna konsekventa svar ges och dess sundhet och fullständighet (för vissa klasser av begränsningar och frågor) bevisas. Metoden bygger på ett iterativt förfarande vars avslutande för flera klasser av begränsningar också bevisas.
Minimala reparationer används i problemet med att returnera konsekventa svar från inkonsekventa databaser REF.
8,430,062
Consistent query answers in inconsistent databases
{'venue': "PODS '99", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,167
Proceduration träd modeller har varit populär i datorgrafik för sin förmåga att generera en mängd olika utgående träd från en uppsättning indataparametrar och att simulera växt interaktion med miljön för en realistisk placering av träd i virtuella scener. Att definiera sådana modeller och deras parametrar är dock en svår uppgift. Vi föreslår en omvänd modelleringsmetod för stokastiska träd som tar polygonala trädmodeller som input och uppskattar parametrarna för en förfarandemodell så att den producerar träd som liknar inputen. Vårt ramverk bygger på en ny parametrisk modell för trädgenerering och använder Monte Carlo Markov Chains för att hitta den optimala uppsättningen parametrar. Vi demonstrerar vår strategi för en mängd olika indatamodeller som erhållits från olika källor, såsom interaktiva modelleringssystem, rekonstruerade scanningar av verkliga träd och utvecklingsmodeller.
I REF föreslogs en omvänd metod för modellering av träd, baserad på en ny parametrisk modell som använder Monte Carlo Markov Chains (MCMC) för att beräkna den optimala uppsättningen procedurparametrar.
1,322,280
Inverse Procedural Modelling of Trees
{'venue': 'Computer Graphics Forum', 'journal': 'Computer Graphics Forum', 'mag_field_of_study': ['Computer Science']}
2,168
Abstract-Stora offentliga moln infrastruktur kan utnyttja kraft som genereras av en mångfald av kraftverk. Kostnaden för el kommer att variera mellan kraftverken och var och en kommer att släppa ut olika mängder kol för en given mängd energi som genereras. Denna infrastruktur tjänster trafik som kan komma från var som helst på planeten. För latensändamål är det önskvärt att föra trafiken till det datacenter som ligger närmast i fråga om geografiskt avstånd, kostar minst ström och släpper ut den minsta mängden kol för en given begäran. Det är inte alltid möjligt att uppnå alla dessa mål, så vi modellerar både nätverks- och beräkningskomponenter i infrastrukturen som en graf och föreslår Stratus-systemet som använder Voronoi-partitioner för att avgöra vilka datacenterförfrågningar som ska dirigeras till baserat på molnoperatörens relativa prioriteringar.
Stratus approach REF utnyttjade Voronoi-partitioner för att avgöra till vilken datacenterförfrågningar ska dirigeras eller migreras.
1,167,893
Stratus: Load Balancing the Cloud for Carbon Emissions Control
{'venue': 'IEEE Transactions on Cloud Computing', 'journal': 'IEEE Transactions on Cloud Computing', 'mag_field_of_study': ['Computer Science']}
2,169
Nätverkskodning ger ökad genomströmning och förbättrad robusthet till slumpmässiga fel i helt decentraliserade nätverk. I motsats till traditionella routingsystem kräver dock nätkodning mellanliggande noder för att ändra datapaket på väg. Av detta skäl är standardiserade signatursystem inte tillämpliga och det är en utmaning att ge motståndskraft mot manipulering av skadliga noder. Vi föreslår två signatursystem som kan användas tillsammans med nätkodning för att förhindra skadliga ändringar av data. Våra scheman kan ses som att underteckna linjära subrymder i den meningen att en signatur σ på en subrymd V autentiserar exakt dessa vektorer i V. Vårt första schema är (lämpligt) homomorphic och har konstant public-key storlek och per-packet overhead. Vårt andra system är inte beroende av slumpmässiga orakel och bygger på svagare antaganden. Vi visar också en lägre gräns för längden på signaturer för linjära subrymder som visar att våra system i huvudsak är optimala i detta avseende.
Därför, Boneh et al. REF föreslog homomorfa signatursystem med bättre prestanda som både allmänna nyckelstorlek och omkostnader per förpackning är konstanta.
10,258,643
Signing a Linear Subspace: Signature Schemes for Network Coding
{'venue': 'Public Key Cryptography', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,170
Obemannade luftfarkoster (UAV) kan användas som antennbaserade trådlösa basstationer när cellulära nätverk går ner. Tidigare studier av UAV-baserad trådlös täckning tar vanligtvis hänsyn till nedlänkscenarier från en flygbasstation till markanvändare. I detta dokument överväger vi ett upplänksscenario under katastrofsituationer (såsom jordbävningar eller översvämningar), när cellulära nätverk är nere. Vi formulerar problemet med optimal UAV placering, där målet är att bestämma placeringen av en enda UAV så att summan av tidsperioder för upplänköverföringar maximeras. Vi bevisar att begränsningarna uppsättningar av problem kan representeras av skärningspunkten mellan halvsfärer och den region som bildas av denna korsning är en konvex uppsättning i termer av två variabler. Detta bevis gör det möjligt för oss att omvandla vårt problem till ett optimeringsproblem med två variabler. Vi bevisar också att den objektiva funktionen hos det omvandlade problemet är en konkava funktion under en begränsning av minimihöjden för UAV och föreslår en gradient projektion-baserad algoritm för att hitta den optimala placeringen av UAV. Vi validerar analysen genom simuleringar och visar hur effektiv den föreslagna algoritmen är i olika fall.
Shakhatreh m.fl. REF talar om att hitta en optimal position för UAVs så att summan av tidsperioder för upplänköverföringar maximeras.
4,684,747
Optimal Placement of a UAV to Maximize the Lifetime of Wireless Devices
{'venue': '2018 14th International Wireless Communications & Mobile Computing Conference (IWCMC)', 'journal': '2018 14th International Wireless Communications & Mobile Computing Conference (IWCMC)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,171
Abstract-Depth uppskattning från enstaka monokulära bilder är en viktig komponent i scen förståelse. De flesta befintliga algoritmer formulerar djupuppskattning som ett regressionsproblem på grund av den kontinuerliga egenskapen djup. Indatans djupvärde kan dock knappast regresseras exakt till mark-sanningens värde. I detta dokument föreslår vi att man formulerar djupuppskattning som en pixelvis klassificeringsuppgift. Specifikt, vi först diskretisera de kontinuerliga mark-sanning djup i flera behållare och märka behållarna enligt deras djupintervall. Sedan löser vi problemet med djupuppskattning som klassning genom att träna ett fullständigt konvolutionellt djupt resterande nätverk. Jämfört med att uppskatta det exakta djupet av en enda punkt, är det lättare att uppskatta dess djupområde. Ännu viktigare, genom att utföra djupklassificering istället för regression, kan vi lätt få förtroende för en djup förutsägelse i form av sannolikhetsfördelning. Med detta förtroende kan vi tillämpa en informationsförlust för att utnyttja de förutsägelser som är nära mark-sanning under utbildningen, samt fullt anslutna villkorade slumpmässiga fält för efterbehandling för att ytterligare förbättra prestanda. Vi testar vår föreslagna metod på både inomhus och utomhus referens RGB-Depth dataset och uppnå toppmodern prestanda.
Istället för regression, Cao et al. REF betraktade djupuppskattningen som en klassificeringsuppgift, där skattningssannolikheten kunde erhållas för förfining med hjälp av CRF.
14,811,066
Estimating Depth From Monocular Images as Classification Using Deep Fully Convolutional Residual Networks
{'venue': 'IEEE Transactions on Circuits and Systems for Video Technology', 'journal': 'IEEE Transactions on Circuits and Systems for Video Technology', 'mag_field_of_study': ['Computer Science']}
2,172
Abstract-I detta papper undersöker vi resursalgoritm design för multicarrier icke-ortogonal multipla access (MC-NOMA) system som använder en full-duplex (FD) basstation för att betjäna flera halv-duplex (HD) nedlänk och upplänk användare samtidigt. Den föreslagna algoritmen erhålls från lösningen av en icke-konvex optimering problem för maximering av den viktade summan systemgenomströmning. Vi tillämpar monoton optimering för att utveckla en optimal policy för fördelning av ledkraft och subcarrier. Den optimala resursfördelningspolicyn fungerar som ett riktmärke för systemets prestanda på grund av dess stora komplexitet i beräkningen. Dessutom föreslås ett icke-optimalt iterativt system som bygger på successiv konvex tillnärmning för att hitta en balans mellan beräkningskomplexitet och optimalitet. Våra simuleringsresultat visar att den föreslagna suboptimala algoritmen uppnår en nära optimal prestanda. Dessutom ger FD MC-NOMA-system som använder de föreslagna resurstilldelningsalgoritmerna en betydande systemgenomströmningsförbättring jämfört med konventionella system för flervägsåtkomst (MC-OMA) och andra baslinjesystem. Dessutom visar våra resultat att FD MC-NOMA-systemen möjliggör en rättvisare resursfördelning jämfört med traditionella HD MC-OMA-system.
I REF ansåg författarna också den viktade summan maximering och utnyttjad monoton optimering för att utveckla en optimal gemensam maktfördelning och kanal tilldelningspolicy, som dock har en exponentiell komplexitet och endast fungerar som ett riktmärke för systemprestanda.
10,304,267
Optimal Joint Power and Subcarrier Allocation for Full-Duplex Multicarrier Non-Orthogonal Multiple Access Systems
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,173
Abstrakt. Termen omskrivningssystem (TRS) utökas genom att tillåta att innehålla extra variabler i sina omskrivningsregler. Vi kallar de utökade systemen EV-TRS. De är illvilliga eftersom varje minskning i ett steg av deras regler med extra variabler är oändligt förgrenad och de inte upphör. För att lösa dessa problem sträcker sig detta dokument till att begränsa TRS till det på EV-TRS och visar att det simulerar reduktionssekvenserna för EV-TRS som de förträngningssekvenser som utgår från marktermer. Vi bevisar sundheten i markförträngningssekvenserna för reduktionssekvenserna. Vi bevisar fullständigheten för fallet med högerlinjära system, och även för fallet att ingen redex i termer ersätta extra variabler minskas i reduktionssekvenserna. Dessutom ger vi en metod för att bevisa avslutandet av simuleringen, utvidga avslutandet av TRS med hjälp av beroendepar, till att minska på EV-TRS från och med markvillkor.
Nishida, Sakai och Sakabe REF anpassade metoden för beroendepar för att bevisa att begränsningen för TRS med extra variabler upphörde.
15,004,339
Narrowing-Based Simulation of Term Rewriting Systems with Extra Variables
{'venue': 'In Proc. of the 10th ACM SIGPLAN International Conference on Functional Programming (ICFP’05', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,174
I detta dokument kartlägger vi nyttan av allmän-ändamåls-, öppen-domän-semantisk tolkning för textförståelse genom att kombinera graf-strukturerade betydelserepresentationer med semantiska tekniker och formella resonemangsverktyg. Vårt tillvägagångssätt uppnår hög precision, och i två fallstudier visar vi att när resonemang över n-bästa analyser från tolken vårt systems prestanda når state-of-the-art för regelbaserade textsystem. De senaste åren har intresset ökat för allmänsemantisk tolkning av grafbaserade betydelserepresentationer, som ger större uttryckskraft än trädbaserade strukturer. Nya insatser i denna anda inkluderar, till exempel, Abstract Means Representation (Banarescu et al., 2013), och Semantic Dependency Parsing (SDP) Oepen et al., 2015). Samtidigt har en rad generiska semantiska tekniker för lagring och bearbetning av grafstrukturerade data gjorts tillgängliga i den semantiska webbmiljön, men dessa har inte använts särskilt mycket för behandling av naturligt språk. Vi föreslår en flexibel, generisk ram för precisionsorienterad Textual Entailment (TE) erkännande som kombinerar semantisk tolkning, grafbaserade representationer av meningsbetydelse, och semantisk teknik. Under det årtionde som gått sedan arbets- och näringsbyråns uppgift definierades har (logiska) slutledningsbaserade metoder gett ett antal viktiga bidrag till området. System som Bos och Markert (2006) och Tatu och moldaviska (2006) använder automatisk korrektursökning över logiska representationer av inmatningsmeningarna. Andra system, såsom Bar-Haim et al. (2007), tillämpa transformativa regler på språkliga representationer av meningsparen, och bestämma påförande genom graf subkonsumtion. Eftersom inferensbaserade system är sårbara för ofullständiga kunskaper i regeluppsättningen och fel i kartläggningen från meningar i naturligt språk till logiska former eller lingvistik representationer, och eftersom definitionen av TE-uppgiften uppmuntrar till ett mer avslappnat, icke-logiskt begrepp om inblandning, har majoriteten av TE-systemen dock använt sig av mer robusta metoder. Vårt arbete stödjer en idé om logisk slutledning för TE genom att resonera med formella regler över grafstrukturerade betydelserepresentationer, samtidigt som vi uppnår resultat som är jämförbara med robusta metoder. Vi använder en fritt tillgänglig, grammatikdriven semantisk parser och en väldefinierad minskning av underspecificerad logisk form betydelse representationer i variabla-fria semantiska grafer som kallas Elementary Dependency Structures (EDS) (Oepen och Lønning, 2006). Vi drar nytta av en redan befintlig lagrings- och sökinfrastruktur för EDS med hjälp av generisk semantisk teknik. För conventionsklassificering skapar vi inferensregler som berikar EDS-graferna, tillämpar reglerna med en generisk resonans och använder grafjustering som beslutsverktyg. För att testa vår allmänna installation utför vi två fallstudier där vi replikerar väl fungerande TE-system, en från Parser Evaluation med hjälp av Textual Entailments (PETE) uppgift (Yuret et al., 2010) och en från SemEval 2014 Task 1 (Marelli et al., 2014). De mest publicerade resultaten för PETE-uppgiften, Lien (2014), erhölls genom heuristiska regler som anpassar betydelsen representationer baserat på strukturell likhet. Lien och Kouylekov (2014) utvidgar samma grundläggande strategi för SemEval 2014 genom att inkludera lexical relations och negation hantering. Vi omarbetar de handskrivna heuristiska reglerna från dessa system som formella Semantic Web Rule Language (SWRL) regler, och kör dem med ett generiskt resonemang verktyg över EDS 40 mening representationer. Den PETE bidrag Lien (2014) experimenterade med att använda n-bästa analyser från tolken för att öka TE-återkallelse, och vi kan enkelt inkludera n-bästa resonemang i vår installation. I avsnitten 2 och 3 skisserar vi vår strategi och beskriver den semantiska tolknings- och semantiska teknik vi använder. Avsnitt 4 och 5 beskriver vår upprepning av de två arbets- och näringsbyråns gemensamma uppgifter. Slutligen sammanfattar vi i avsnitt 6 våra ansträngningar och pekar på riktlinjer för det framtida arbetet. General-purpose, open-domain semantic parsing systems that output logisk-form mening representationer är fritt tillgängliga idag, men har ännu inte varit allmänt används i TE-system. För vår replikering av PETE och SemEval uppgifter använder vi den engelska resurs Grammar (ERG) (Flickinger, 2000), en bred täckning HPSG-baserad parser. ERG har utvecklats kontinuerligt sedan omkring 1993, och idag kommer att tillåta tolkning av 90-95% av meningarna i naturligt förekommande kör texter av olika domäner och genrer vid genomsnittliga pars gånger av ett par sekunder per mening. ERG innehåller en maximal Entropy parse rankning modell som är tränad på cirka 50.000 blandade-domän meningar; tolken tillämpar exakt slutsats, dvs, konstruerar en komplett parse skog och underlättar utvinning av n-bästa listor av analyser i globalt optimal rankning ordning. I våra experiment använder vi ERG i dess 1212 version, tillsammans med dess standard PET parser (Callmeier, 2002), och off-the-shelf modeller och inställningar. ERG outputs underspecificerad betydelse representationer i ramverket Minimal Recursion Semantics (MRS) (Copestake et al., 2005). MRS-logikform betyder representationer kan konverteras till EDS, som är variabla-fria semantiska beroende grafer. Kouylekov och Oepen (2014) visade nyligen att Resursbeskrivningsramen (RDF) är lämplig för att representera olika typer av semantiska grafer, och visade hur man bäddar in EDS-betydelse representationer i RDF. Vi väljer EDS över MRS eftersom dess variabla fria form integreras mer naturligt med RDF-teknik, samtidigt som den semantiska information som krävs för att medföra erkännande. I EDS-exemplet i figur 1 visar varje linje en grafnod (var och en motsvarar en elementär predikering i den ursprungliga MRS), med nodidentifierare prefixed till nodetiketter (separat av kolon), och en uppsättning utgående bågar (roll-argument par) inneslutna i parenteser. De semantiska argumenten till relationen representerar noden är riktade bågar till andra noder i EDS-grafen. Till exempel, noden för skulle v modal är ansluten till noden för och c genom en båge märkt ARG1. Noden märkt och c i sin tur har utgående bågar att väcka v upp och oroa v om. De två pron noderna har inte utgående bågar, de är anslutna till strukturen genom inkommande bågar från verb noderna. Slutligen är var och en av pronomen q noderna ansluten till en pron nod genom en BV ("bunden variabel") båge. En grafisk visualisering av samma graf visas i figur 3 (avtändande noder och bågar som visas i grönt där, som läggs till av vår medföljande processor). Det finns två anmärkningsvärda exempel på logikbaserade TE-system som har använt ERG-tolken och MRS-betydelserepresentationer: Wotzlaw och Coote (2013) presenterar ett TE-system som kombinerar resultaten av djupa och ytliga språkliga analyser med räckviddsupplösta MRS-representationer. MRS-uttrycken översätts till ett annat, semantiskt likvärdigt första ordningens logikformat som, berikat med bakgrundskunskap, används för den faktiska slutsatsen. Bergmair (2010) använder även MRS som ett mellanformat för att konstruera representationer. Input meningar tolkas med ERG, och de resulterande MRSs översätts till logiska formler som kan prosessed av en inference motor. I motsats till dessa tidigare tillämpningar av generisk semantisk tolkning med hjälp av ERG till TE-uppgiften förenklar vårt arbete de skopalt underspecificerade logiska formerna av MRS till mer kompakta graf-strukturerade representationer av kärn-predikat-argument relationer, och vi definierar TEspecialiserade föreställningar om inferens över dessa semantiska grafer. Kouylekov och Oepen (2014) kartlägger olika typer av betydelse representationer, inklusive EDS som används i vårt arbete, till RDF grafer, lagras i offthe-shelf RDF trippel butiker, och sökte med hjälp av SPARQL frågor. I vårt arbete bygger vi ett TE-system som använder sin infrastruktur som grund för resonemang över EDS-grafer. Textdetaljer definierades av Dagan et al. (2006) som uppgift att erkänna om den ena textens betydelse innebär betydelsen av den andra texten med tanke på två textfragment. Textfragmenten kallas konventionellt text T respektive hypotes H. Begreppet "detaljisering" som används inom TE är informellt och bygger åtminstone delvis på allmänna kunskaper i språk och i världen. Vårt textbaserade system använder grafanpassning över EDS-strukturer som grund för beslut. Vi utökar tillvägagångssättet genom att berika graferna i en framåtkedjande anda med hjälp av SWRL regler, och Jena reapeler 1. Efter resonemanget steg, den faktiska justeringen utförs med en SPARQL fråga som försöker matcha hypotesen graf till textkurvan. Tillsammans med ett klassificeringsbeslut ger systemet ett "säkert" genom att lista varje SWRL-regel som användes i resonemanget. På sätt och vis följer vi det klassiska resonemanget om att försöka dra slutsatsen om hypotesen från texten. Vår subsumption strategi för att medföra erkännande kräver en del omskrivning av EDS grafer som produceras av ERG parser. Till exempel måste EDS-grafen i figur 1 skrivas om så att beroenden sprids in i koordinatstrukturen, vilket underlättar subgrafernas subkonsumtion. Vi använder SPRL, en semantisk webbstandard för resonemang över ontologier 2, för att koda omskrivningsregler för EDS grafer. Grafstrukturerna är berikade med en uppsättning framåtkedjade SPRL-regler, och därför kan vår grafskrivande metod ses som en form av framåtkedjande 1 https://jena.apache.org/ 2 http://www.w3.org/Submission/SWRL/ inference. Systemet använder två uppsättningar SPRL-regler, en för texten och en för hypotesgrafen. Funktionen för dessa regler är att ytterligare normalisera och lägga till information till båda graferna för att göra matchning möjlig. Vi anpassar regeluppsättningarna för olika datauppsättningar till accommodate variation i implementation fenomen. Regeluppsättningarna innehåller fem typer av regler: • abstraction regler • predikat förenkling regler • strukturella regler • lexical relation regler • polaritet märkning regler Abstraction regler Vi använder ett antal abstraktion regler för att tillåta matchning av obestämda och personliga pronomen i H grafen till NPs i T grafen. Att kunna matcha det obestämda pronomenet med det personliga pronomenet han t.ex. Han har en poäng han vill göra [...] på någon vill göra en punkt (PETE id 1026), reglerna märker båda pronomen med samma abstraktion etikett, dvs, de lägger till en ytterligare rdf:type egenskap till dessa noder, som kan användas i efterföljande testning för nodlikvärdighet. Våra regler är också abstrakta över vissa kvantifieringar. I de datamängder som vi har undersökt, texten och hypotes meningen i en inducering par ofta har kvantifier variationer som är tydligt inte relevanta för att erkänna inducering förhållandet (t.ex., En kvinna städar en räkor på kvinnan städar en räkor, SemEval id 3364). Vi grupperar dessa kvantifiatorer i kandidat ekvivalensklasser med hjälp av formulärens regler: 42
MRS har med framgång använts för uppgiften att erkänna textförseelse (RTE) REF.
7,844,724
Semantic Parsing for Textual Entailment
{'venue': 'IWPT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,175
Detta dokument presenterar en innehållscentrerad överföringsdesign i ett molnradionät (cloud RAN) genom att införliva multicasting och caching. Användare som begär samma innehåll bildar en multicast grupp och betjänas av samma kluster av basstationer (BS) samarbetsvilligt. Varje BS har en lokal cache och den förvärvar det begärda innehållet antingen från sin lokala cache eller från den centrala processorn (CP) via backhaul länkar. Vi undersöker den dynamiska innehållscentrerade BS-klustringen och multigjuten strålformning med avseende på både kanalkondition och cachestatus. Vi formulerar först en blandad-integer icke-linjär programmering problem med att minimera den viktade summan av backhaul kostnad och överföra kraft under quality-of service begränsning för varje multicast grupp. Teoretisk analys visar att alla BS caching ett begärt innehåll kan inkluderas i BS-klustret av detta innehåll, oavsett kanalförhållanden. Sedan omformulerar vi en ekvivalent gles flergjuten strålformning (SBF) problem. Genom att anta utjämnad l 0 -norm approximation och andra tekniker, SBF problemet omvandlas till skillnaden av konvexa (DC) program och effektivt lösas med hjälp av konvex-konkav procedur algoritmer. Simuleringsresultaten visar på en betydande fördel med den föreslagna innehållscentrerade överföringen. Effekterna av heuristiska caching strategier utvärderas också. Cloud Radio Access Network (Cloud RAN), caching, multicasting, innehållscentrerade trådlösa nätverk, gles strålformning.
För cache-aktiverade moln RAN undersöktes i REF, där nätkostnaden definieras som den viktade summan av överföringseffekt och backhaul kostnad.
6,743,918
Content-Centric Sparse Multicast Beamforming for Cache-Enabled Cloud RAN
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,176
I detta dokument föreslås metoder för att extrahera låneord från kyrilliska mongoliska korpora och ta fram en japansk-mongolisk tvåspråkig ordbok. Vi hämtar låneord från mongoliska korpora med hjälp av våra egna handgjorda regler. Som komplement till den regelbaserade extraktionen extraherar vi också ord i mongolisk korpora som fonetiskt liknar japanska Katakana ord som låneord. Dessutom motsvarar vi de extraherade låneorden japanska ord och producerar en tvåspråkig ordbok. Vi föreslår en stagnerande metod för mongoliska att extrahera låneord korrekt. Vi verifierar effektiviteten av våra metoder experimentellt.
REF extraherar låneord från mongolisk korpora med hjälp av ett japanskt låneordlexikon.
6,049,121
Extracting Loanwords From Mongolian Corpora And Producing A Japanese-Mongolian Bilingual Dictionary
{'venue': 'International Conference On Computational Linguistics And Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,177
Hur man modellerar ett par meningar är en kritisk fråga i många NLP-uppgifter såsom svarsval (AS), parafrasidentifiering (PI) och textingrepp (TE). De flesta tidigare arbeten (i) handlar om en enskild uppgift genom finjustering av ett specifikt system; (ii) modellerar varje menings representation separat, sällan med tanke på inverkan av den andra meningen; eller (iii) bygger helt på manuellt utformade, uppgiftsspecifika språkliga funktioner. Detta arbete presenterar en allmän uppmärksamhetsbaserad Convolutional Neural Network (ABCNN) för att modellera ett par meningar. Vi ger tre bidrag. (i) ABCNN kan tillämpas på en mängd olika uppgifter som kräver modellering av meningspar. (ii) Vi föreslår tre uppmärksamhetsprogram som integrerar ömsesidigt inflytande mellan meningar i CNN, vilket innebär att varje menings representation tar hänsyn till dess motsvarighet. Dessa inbördes beroende mening par representationer är mer kraftfull än isolerade mening representationer. (iii) ABCNN:er uppnår toppmoderna resultat när det gäller AS-, PI- och TE-uppgifter. Vi släpper kod på: https://github.com/ yinwenpeng/Answer_Selection.
Yin m.fl. REF föreslog uppmärksamhetsbaserade konvolutionella neurala nätverk (ABCNN) för att modellera ett par meningar.
5,535,381
ABCNN: Attention-Based Convolutional Neural Network for Modeling Sentence Pairs
{'venue': 'Transactions of the Association for Computational Linguistics', 'journal': 'Transactions of the Association for Computational Linguistics', 'mag_field_of_study': ['Computer Science']}
2,178
Abstr Act: För att ge den mest effektiva behandlingen mot cancer är det viktigt att kunna diagnostisera om en patients cancer kommer att svara på en föreslagen behandling. Metyleringsprofilering kan innehålla information från vilken sådana förutsägelser kan göras. För närvarande används hypotestester för att avgöra om eventuella biomarkörer för cancerprogression ger statistiskt signifikanta resultat. Men detta tillvägagångssätt kräver identifiering av individuella gener, eller uppsättningar av gener, som kandidathypoteser, och med den ökande storleken av moderna mikroarrayer, denna uppgift blir gradvis svårare. Uttömmande tester av små uppsättningar gener är beräkningsmässigt ogenomförbara, och därför beror hypotesgenereringen antingen på användningen av etablerad biologisk kunskap eller på heuristiska metoder. Som ett alternativ till maskininlärning kan metoder användas för att identifiera grupper av gener som verkar tillsammans inom grupper av cancerdata och associera deras beteende med cancerprogression. Dessa metoder har fördelen av att vara multivariat och opartisk men tyvärr också snabbt bli beräkningsogenomförbar när antalet gensonder och dataset ökar. För att ta itu med detta problem har vi undersökt ett sätt att utnyttja tidigare kunskap för att segmentera mikroarraydataset på ett sådant sätt att maskininlärning kan användas för att identifiera kandidatuppsättningar av gener för hypotestestning. En metyleringsdatauppsättning är uppdelad i undergrupper, där varje delmängd endast innehåller de sonder som relaterar till en känd genväg. Var och en av dessa undergrupper används självständigt för klassificering. Klassificeringsmetoden är AdaBoost med beslutsträd som svaga klassificeringar. Eftersom varje vägdelmängd innehåller ett relativt litet antal gensonder är det möjligt att snabbt träna och testa dess klassificeringsnoggrannhet och avgöra om den har värdefull diagnostisk information. Slutligen, gener från framgångsrika väg undergrupper kan kombineras för att skapa en klassificering av hög noggrannhet.
Hira och Gillies REF försökte utnyttja förkunskaper för att segmentera mikroarraydataset för att identifiera kandidatuppsättningar av gener för hypotestestning.
5,882,410
Identifying Significant Features in Cancer Methylation Data Using Gene Pathway Segmentation
{'venue': None, 'journal': 'Cancer Informatics', 'mag_field_of_study': ['Medicine', 'Computer Science']}
2,179
Abstract-Low Density Parity Check (LDPC) dekodrar har en inneboende förmåga att korrigera de överföringsfel som uppstår, när kommunicera över en fientlig trådlös kanal. Denna kapacitet gör det möjligt för LDPC-kodade system att använda lägre överföringsenergier än okodade system, på bekostnad av införandet av en betydande energiförbrukning vid LDPC-avkodning. Traditionella tekniker för energiminskning, såsom spännings- och klockskalning, kan användas för att minska LDPC-dekoderns energiförbrukning. Dessa tekniker kan dock leda till tidsfel, som kan försämra LDPC-dekoderns felkorrigeringsförmåga. Vårt tidigare arbete har visat att i motsats till andra typer av LDPC-dekodrar har stokastiska dekodrar en inneboende tolerans mot tidsfel, vilket gör det möjligt för dem att bibehålla en hög felkorrigeringsförmåga i klockskalningsscenarier. I det här dokumentet undersöker vi denna tidfeltolerans i spänningsskalningsscenarier, genom att utöka vår tidigare modell av tidfel med hjälp av omfattande SPICE-simuleringar. Dessutom använder vi dessa SPICE-simuleringar för att karakterisera energiförbrukningen hos stokastiska LDPC-avkodare för första gången. Vi visar att en modifierad stokastisk LDPC-dekoder kan fungera på 0,8 V och en klockperiod på 915.11 hk, samtidigt som felkorrigeringsförmågan hos en konventionell stokastisk dekoder som arbetar vid 1 V och en klocka period på 1019.2 hk, vilket ger en 36,7% minskning av processen energiförbrukning.
Däremot var vårt tidigare bidrag REF det första i den öppna litteraturen som utforskade den inneboende toleransen hos stokastiska LDPC-avkodare för tidsfel, både i närvaro av klock- och spänningsskalning.
15,924,112
Analysis of voltage- and clock-scaling-induced timing errors in stochastic LDPC decoders
{'venue': '2013 IEEE Wireless Communications and Networking Conference (WCNC)', 'journal': '2013 IEEE Wireless Communications and Networking Conference (WCNC)', 'mag_field_of_study': ['Computer Science']}
2,180
Att hitta optimala tredimensionella molekylära konfigurationer baserade på en begränsad mängd experimentella och/eller teoretiska data kräver effektiva icke-linjära optimeringsalgoritmer. Optimeringsmetoder måste kunna hitta atomiska konfigurationer som är nära det absoluta, eller globala, minsta felet och även tillgodose kända fysiska begränsningar såsom minsta separation avstånd mellan atomer (baserat på van der Waals interaktioner). De svåraste hindren för dessa typer av problem är att 1) att använda en begränsad mängd indata leder till många möjliga lokala optima och 2) att införa fysiska begränsningar, såsom minimala separationsavstånd, bidrar till att begränsa sökutrymmet men gör ofta konvergensen till ett globalt minimum svårare. Vi inför en begränsad global optimeringsalgoritm som är robust och effektiv när det gäller att ge nästan optimala tredimensionella konfigurationer som garanterat uppfyller kända separationsbegränsningar. Algoritmen använder en atombaserad metod som minskar dimensionaliteten och gör det möjligt att tillämpa begränsningar samtidigt som man upprätthåller goda globala konvergensegenskaper. Vi utvärderar den nya optimeringsalgoritmen med hjälp av syntetiska data från jästfenylalanin tRNA och flera proteiner, alla med känd kristallstruktur tagen från Protein Data Bank. Vi jämför resultaten med vanliga optimeringsmetoder, såsom avståndsgeometri, simulerad glödgning, fortsättning och utjämning. Vi visar att jämfört med andra optimeringsmetoder, vår algoritm kan kombinera glesa inmatningsdata med fysiska begränsningar på ett effektivt sätt för att ge strukturer med lägre rotmedelvärde kvadratavvikelse.
Ett annat exempel är GNOMAD algoritm REF, också en global optimeringsmetod, som tar särskild hänsyn till att tillfredsställa den fysiskt okränkbara minsta separation avstånd, eller van der Waals (VDW) begränsningar.
15,685,948
Constrained Global Optimization for Estimating Molecular Structure from Atomic Distances
{'venue': 'Journal of Computational Biology', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']}
2,181
Vi presenterar en ny oövervakad ram för djupinlärning för onormal händelsedetektering i komplexa videoscener. Medan de flesta befintliga verk bara använder handgjorda utseende och rörelsefunktioner, föreslår vi Utseende och Motion DeepNet (AMDN) som använder djupa neurala nätverk för att automatiskt lära sig funktion representationer. För att utnyttja den kompletterande informationen om både utseende och rörelsemönster, introducerar vi en ny ram för dubbel fusion, som kombinerar både fördelarna med traditionell tidig fusion och sena fusionsstrategier. Speciellt, staplade denoiserande autokodrar föreslås att separat lära sig både utseende och rörelse funktioner samt en gemensam representation (tidig fusion). Baserat på de inlärda representationerna används flera enklassiga SVM-modeller för att förutsäga anomalipoängen för varje ingång, som sedan integreras med en sen fusionsstrategi för slutlig anomalidetektering. Vi utvärderar den föreslagna metoden på två allmänt tillgängliga videoövervakningsdata, som visar konkurrenskraftiga resultat med avseende på den senaste tekniken.
Xu REF föreslår Appearance and Motion DeepNet (AMDN) för att lära sig diskriminerande funktioner representationer för avvikande händelsedetektering.
795,827
Learning Deep Representations of Appearance and Motion for Anomalous Event Detection
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
2,182
Den Wiener index av en graf är summan av alla pairwise kortaste-path avstånd mellan dess hörn. I detta papper studerar vi det nya problemet med att hitta en minimal Wiener kontakt : med tanke på en ansluten graf G = (V, E) och en uppsättning Q på frågevertikaler, hitta en subgraf av G som ansluter alla frågevertikaler och har minimal Wiener index. Vi visar att Min Wiener Connector medger en polynom-tid (om än opraktisk) exakt algoritm för specialfallet där antalet frågevertikaler begränsas. Vi visar att i allmänhet problemet är NP-hård, och har ingen PTAS om inte P = NP. Vårt huvudsakliga bidrag är en konstantfaktor approximationsalgoritm som körs i tid O (..) En grundlig experiment på en stor variation av realworld grafer bekräftar att vår metod returnerar mindre och tätare lösningar än andra metoder, och gör det genom att lägga till i frågeuppsättningen Q ett litet antal "viktiga" hörn (dvs hörn med hög centralitet).
Den minsta wiener kontakt problem är att hitta en liten ansluten subgraph för att minimera summan av alla pairwise kortaste-path avstånd mellan de upptäckta hörn REF.
2,856,346
The Minimum Wiener Connector Problem
{'venue': "SIGMOD '15", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,183
Vi föreslår en klass av integritet begränsningar för relationsdatabaser, kallas villkorliga funktionella beroenden (CFDs), och studera deras tillämpningar i datarengöring. I motsats till traditionella funktionella beroenden (FDs) som utvecklats främst för schemadesign, CFDs syftar till att fånga konsekvensen av data genom att genomdriva bindningar av semantiskt relaterade värden. För statisk analys av CFD-kontrakt undersöker vi överensstämmelseproblemet, vilket är att avgöra om det finns en icke-tom databas som uppfyller en viss uppsättning av CFD-kontrakt, och det implicita problemet, vilket är att avgöra om en uppsättning CFD-kontrakt innebär en annan CFD. Vi visar att även om någon uppsättning av övergångs FDs är trivialt konsekvent, konsekvens problemet är NP-komplett för CFDs, men det är i PTIME när antingen databasen schema är fördefinierad eller inga attribut som är involverade i CFDs har en ändlig domän. För konsekvensanalysen av CFDs tillhandahåller vi ett inferencesystem som liknar Armstrongs axioms för FDs, och visar att implikationsproblemet är coNP-kompletterat för CFDs i motsats till den linjära tids komplexiteten för deras traditionella motsvarighet. Vi presenterar också en algoritm för att beräkna ett minimalt omslag av en uppsättning CFDs. Eftersom CFD-kontrakt tillåter databindningar kan i vissa fall CFD-kontrakt vara fysiskt stora, vilket komplicerar upptäckten av överträdelser av restriktioner. Vi utvecklar tekniker för att upptäcka CFD överträdelser i SQL samt nya tekniker för att kontrollera flera begränsningar genom en enda fråga. Vi tillhandahåller också stegvisa metoder för att kontrollera CFD som svar på ändringar i databasen. Vi verifierar experimentellt effektiviteten hos våra CFD-baserade metoder för att upptäcka inkonsekvens. Detta arbete ger inte bara en begränsningsteori för CFDs utan är också ett steg mot en praktisk begränsningsbaserad metod för att förbättra datakvaliteten.
I REF ) föreslog författarna en klass av integritet begränsningar för relationsdatabaser, som kallas villkorliga funktionella beroenden (CFDs), och studera deras tillämpningar i datarening.
12,486,990
Conditional functional dependencies for capturing data inconsistencies
{'venue': 'TODS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,184
Abstrakt. Grundläggning (dvs. lokalisering) godtyckliga, fria textfraser i visuellt innehåll är ett utmanande problem med många tillämpningar för människa-datorinteraktion och bild-text referensupplösning. Få dataset ger marken sanning rumslig lokalisering av fraser, därför är det önskvärt att lära sig från data utan eller lite jordning övervakning. Vi föreslår ett nytt tillvägagångssätt som lär sig grundläggning genom att rekonstruera en given fras med hjälp av en uppmärksamhetsmekanism, som kan antingen latent eller optimeras direkt. Under utbildningen kodar vårt tillvägagångssätt frasen med hjälp av en återkommande nätverksspråkmodell och lär sig sedan att ta hand om den relevanta bildregionen för att rekonstruera inmatningsfrasen. Vid provtillfället utvärderas korrekt uppmärksamhet, dvs. grundläggningen. Om grundövervakning är tillgänglig kan den direkt tillämpas via en förlust över uppmärksamhetsmekanismen. Vi visar effektiviteten i vår strategi för Flickr 30k-enheter [35] och ReferItGame [26] dataset med olika nivåer av tillsyn, allt från ingen tillsyn över partiell tillsyn till fullständig tillsyn. Vår övervakade variant förbättras med stor marginal över toppmoderna på båda datauppsättningarna.
Parallellt med detta dokument använder REF en uppmärksamhetsmodell för markreferensfraser i bildbeskrivningar genom att se till regioner där fraserna bäst kan rekonstrueras.
9,926,549
Grounding of Textual Phrases in Images by Reconstruction
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
2,185
Abstrakt. Publicera/subscribe-baserade meddelandesystem används allt oftare som en kommunikationsmekanism i dataorienterade webbapplikationer. Sådana tillämpningar medför ofta allvarliga prestanda- och skalbarhetsutmaningar. För att ta itu med dessa utmaningar är det viktigt att systemen testas med hjälp av riktmärken för att utvärdera deras prestanda och skalbarhet innan de sätts i produktion. I detta dokument presenterar vi jms2009-PS, ett nytt riktmärke för publicering/subscribe-baserade meddelandesystem som bygger på SPECjms2007 standardarbetsbörda. Vi introducerar riktmärket och diskuterar dess konfigurationsparametrar som visar hur arbetsbelastningen kan anpassas för att utvärdera olika aspekter av publicering/prenumeration kommunikation. Slutligen presenterar vi en fallstudie som visar hur riktmärket kan användas för prestandaanalys av meddelandeservrar.
Ett riktmärke för offentliggörande/prenumerationssystem byggt ovanpå SPECjms2007 arbetsbelastning är jms2009-PS REF.
6,564,427
Benchmarking publish/subscribe-based messaging systems
{'venue': 'In DASFAA Workshops: Benchmar’X10', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,186
Definitionen av kombinatorisk kategoriserad grammatik (CCG) i litteraturen varierar ganska mycket från författare till författare. Skillnaderna mellan definitionerna är dock viktiga när det gäller språkklasser i varje CCG. Vi bevisar att ett brett spektrum av CCGs är starkt kontextfria, inklusive CCG i CCGbank och parser av Clark och Curran (2007). Mot bakgrund av dessa nya resultat utbildar vi PCFG-tolken Petrov och Klein (2007) på CCGbank och uppnår toppmoderna resultat i supertagging noggrannhet, PARSEVAL-mått och beroendenoggrannhet.
REF bevisade formellt att en rad kombinatoriska kategoriserings Grammamer (CCG) är kontextfria.
9,118,584
Accurate Context-Free Parsing with Combinatory Categorial Grammar
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,187
Abstract-Diskriminerande DDoS översvämningar attacker från flash folkmassor utgör en tuff utmaning för nätverkssäkerhet gemenskapen. På grund av sårbarheten i den ursprungliga utformningen av Internet, kan angripare lätt efterlikna mönster av legitima nätverkstrafik att flyga under radarn. De befintliga fingeravtrycken eller funktionsbaserade algoritmerna är oförmögna att upptäcka nya attackstrategier. I den här artikeln siktar vi på att skilja DDoS-angrepp från blixtmassor. Vi motiveras av följande faktum: attackflöden genereras av samma förbyggda program (attack verktyg), men flash publik kommer från slumpmässigt distribuerade användare över hela Internet. Därför är flödet likheten mellan DDoS attackflöden mycket starkare än den bland blixtpubliker. Vi använder abstrakta avståndsmått, Jeffrey-avståndet, Sibson-avståndet och Hellinger-avståndet för att mäta likheten mellan flödena för att uppnå vårt mål. Vi jämförde de tre mätvärdena och fann att Sibson-avståndet är det lämpligaste för vårt ändamål. Vi tillämpar vår algoritm på de verkliga dataseten och resultaten indikerar att den föreslagna algoritmen kan differentiera dem med en noggrannhet runt 65%.
Yu m.fl. använda avståndsmått för att differentiera DDoS attackflöden från flash publik, genom att analysera flöde likhet REF.
2,929,824
Discriminating DDoS Flows from Flash Crowds Using Information Distance
{'venue': '2009 Third International Conference on Network and System Security', 'journal': '2009 Third International Conference on Network and System Security', 'mag_field_of_study': ['Computer Science']}
2,188
En bebodd bitmporal relational datamodell och dess frågespråk implementeras. Bitamporalatomen (BTA) är den grundläggande konstruktionen för att representera timliga data och den innehåller 5 komponenter: ett värde, de nedre och övre gränserna för giltig tid, och de nedre och övre gränserna för omkodningstiden. Vi överväger 2 typer av datastrukturer för lagring av BTA: 1) sträng representation och 2) abstrakt data-typ representation. Vi utvecklar också en preprocessor för att översätta en bitmporal strukturerad frågespråk (BtSQL) uttalande till standard SQL uttalanden. Den BtSQL innehåller markera, infoga, ta bort och uppdatera uttalanden av SQL, utökad för bitmporal relational databaser. Det stöder bitmporal, historiska, och nuvarande sammanhang. Bitemporal sammanhang är för revisionsändamål, historiska sammanhang är för att ifrågasätta tidigare tillstånd av en bitmporal databas, och nuvarande sammanhang är för att fråga ögonblicksbild tillstånd av en bitmporal databas. Vi utvärderar också resultatet av de 2 alternativa genomförandemetoderna genom att överväga hämtning, införande och uppdatera frågor.
De implementerade också en sträng och abstrakt data-typ representation av bitmporal data och utvecklade en preprocessor för att översätta en bitmporal SQL uttalande till standard SQL uttalanden i REF.
15,223,115
BtSQL: nested bitemporal relational database query language
{'venue': None, 'journal': 'Turkish Journal of Electrical Engineering and Computer Sciences', 'mag_field_of_study': ['Computer Science']}
2,189
Högpresterande datorer är och har alltid varit prestandaorienterade. Men, en konsekvens av tryck mot maximal prestanda är ökad energiförbrukning, särskilt vid superdatorer centra. Eftersom toppprestanda sällan uppnås leder en del av denna energiförbrukning dessutom till liten eller ingen resultatvinst. Dessutom kostar stor energiförbrukning regeringen en betydande summa pengar och slösar naturresurser. I detta dokument undersöks avvägningen mellan energi och prestanda. Genom att använda processorer som stöder frekvens- och spänningsskalning mätte vi programs prestanda och energiförbrukning från tre populära referensuppsättningar. Vi gjorde flera mätningar för varje program med olika frekvens- och spänningsinställningar. Resultat visar att för många program, en betydande minskning av energi är möjligt med en liten ökning av tiden. Vi anser att detta motiverar ytterligare utredning av parallella HPC-tillämpningar (t.ex. MPI).
I REF undersökte författarna avvägningen mellan energi och prestanda.
14,988,396
Exploring the energy-time tradeoff in high-performance computing
{'venue': '19th IEEE International Parallel and Distributed Processing Symposium', 'journal': '19th IEEE International Parallel and Distributed Processing Symposium', 'mag_field_of_study': ['Computer Science']}
2,190
Abstract-Robots krävs ofta för att generalisera de färdigheter som lärts från mänskliga demonstrationer för att uppfylla nya uppgiftskrav. Men färdighet generalisering kommer att vara svårt att inse när man ställs inför följande situationer: skickligheten för en komplex multisteg uppgift innehåller ett antal funktioner; vissa särskilda begränsningar åläggs robotarna under processen för uppgiften reproduktion; och en helt ny situation helt annorlunda med den där demonstrationer ges till roboten. Detta arbete föreslår en ny ram för att underlätta robot färdigheter generalisering. Den grundläggande tanken ligger i att de lärda färdigheterna först segmenteras i en sekvens av underfärdigheter automatiskt, sedan varje individuell underkompetens kodas och regleras i enlighet därmed. Specifikt anpassar vi varje uppsättning av de segmenterade rörelsebanorna individuellt i stället för hela rörelseprofiler, vilket gör det mer bekvämt för förverkligandet av färdighets generalisering. Dessutom beaktas styvhet i mänskliga extremiteter, beräknad från ytelektromyografiska signaler, inom ramen för förverkligandet av mänsklig-till-robot variabel impedanskontroll, såväl som generaliseringen av både rörelsebanor och stelhetsprofiler. Experimentell studie har utförts för att kontrollera den föreslagna ramens effektivitet.
I REF, Yang et al. föreslog en ny utbildningsram.
59,618,917
A Learning Framework of Adaptive Manipulative Skills From Human to Robot
{'venue': 'IEEE Transactions on Industrial Informatics', 'journal': 'IEEE Transactions on Industrial Informatics', 'mag_field_of_study': ['Computer Science']}
2,191
Hur kan vi förklara förutsägelserna om en svart låda modell? I denna uppsats använder vi influensfunktioner - en klassisk teknik från robust statistik - för att spåra en modells förutsägelse genom inlärningsalgoritmen och tillbaka till dess träningsdata och därmed identifiera utbildningspunkter som är mest ansvariga för en given förutsägelse. För att skala upp påverkan funktioner till moderna maskininlärningsinställningar, utvecklar vi en enkel, effektiv implementation som kräver endast oracle tillgång till gradienter och hessiska-vektor produkter. Vi visar att även på icke-konvexa och icke-differentierbara modeller där teorin bryts ner kan approximationer för att påverka funktioner fortfarande ge värdefull information. På linjära modeller och konvolutionella neurala nätverk, visar vi att influensfunktioner är användbara för flera ändamål: att förstå modellbeteende, debugging modeller, upptäcka dataset fel, och även skapa visuellt oskiljaktiga tränings-set attacker.
Nyligen föreslog Koh och Liang en metod för att använda influensfunktioner, en teknik från robust statistik, för att förklara förutsägelserna av en svart låda modell genom att spåra det lärda läget för en modell tillbaka till enskilda utbildningsexempel REF.
13,193,974
Understanding Black-box Predictions via Influence Functions
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,192
En av de grundläggande frågorna i Wireless Sensor Networks (WSN) är att räkna och lokalisera flera mål korrekt. I detta sammanhang har intresset för litteraturen ökat för att använda Compressive Sensing (CS)-baserade tekniker genom att utnyttja den glesa karaktären hos rumsligt fördelade mål inom det övervakade området. De flesta befintliga verk syftar dock till att räkna och lokalisera de glesa målen med hjälp av en enkel mätvektor (SMV) modell. I detta dokument överväger vi problemet med att räkna och lokalisera flera mål som utnyttjar den gemensamma gleshet särdrag av en Multiple Measurement Vector (MMV) modell. Dessutom är den konventionella MMV-formuleringen där samma mätmatris används för alla sensorer inte längre giltig i praktiska tidsvarierande trådlösa miljöer. För att lösa denna fråga omformulerar vi MMV-problemet till en konventionell SMV där MMV är vektoriserade. Därefter föreslår vi en ny rekonstruktionsalgoritm som inte behöver förkunskaper om sparsamhetsnivån till skillnad från de mest befintliga CS-baserade tillvägagångssätten. Slutligen utvärderar vi den föreslagna algoritmens prestanda och visar att den föreslagna MMV-metoden är överlägsen dess SMV-motsvarighet när det gäller målräkning och lokaliseringsnoggrannhet.
Genom att utnyttja den gemensamma gleshet särdrag mål platser, antogs flera mätvektorer modellen för att ta itu med den tidsvarierande miljön REF.
7,531,600
Compressive sensing based target counting and localization exploiting joint sparsity
{'venue': '2016 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)', 'journal': '2016 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)', 'mag_field_of_study': ['Computer Science']}
2,193
Som svar på biologernas senaste behov lägger vi grunden till ett stereosynbaserat system i realtid för övervakning av flygande honungsbin i tre dimensioner vid bikupans ingång. Spårande bin är en utmanande uppgift eftersom de är många, små och snabbrörliga mål med kaotisk rörelse. I motsats till den senaste tekniken föreslår vi att vi ska ta itu med problemet på 3D-området. Vi presenterar ett stereovisionsbaserat system som kan upptäcka bin vid bikupans ingång och som är tillräckligt pålitligt för spårning. Dessutom föreslår vi en detekterings-före-spår metod som använder två innovativa metoder: hybrid segmentering med både intensitet och djup bilder, och justerad 3D multi-målspårning baserad på Kalman filtret och Global Nearest Neighbor. Tester på robusta marksanningar för segmentering och spårning har visat att våra segmenterings- och spårningsmetoder klart överträffar standard 2D-metoder.
Ett stereovisionsbaserat system presenteras i REF.
13,988,510
Detecting and tracking honeybees in 3D at the beehive entrance using stereo vision
{'venue': None, 'journal': 'EURASIP Journal on Image and Video Processing', 'mag_field_of_study': ['Computer Science']}
2,194
Abstract-Vi presenterar en ny distribuerad implementering av Multiple Hypothesis Tracking (MHT). Vår implementering är baserad på Merkle-Tree (hash-tree) distribuerat innehåll lagringsmetod. Den föreslagna arkitekturen använder sig av de senaste framstegen när det gäller kryptografiska signaturer för att möjliggöra snabba operationer på lokala träd och även för att dela hypoteser mellan lokala och avlägsna noder. Slutligen möjliggör den föreslagna arkitekturen också naturlig hantering av out-of-sekvens-mätningar.
I REF presenterade författarna ett nytt distribuerat genomförande av flera hypotesspårning (MHT).
8,957,767
A hash-tree based approach for a totally distributed track oriented Multi Hypothesis Tracker
{'venue': '2012 IEEE Aerospace Conference', 'journal': '2012 IEEE Aerospace Conference', 'mag_field_of_study': ['Computer Science']}
2,195
Denna forskning presenterar och utvärderar ett CAVE-liknande IPT-system där en Tracked Display and Interaction Device (TDID), baserad på en Tablet PC, används för att visa ett förstärkt visningssystem för detaljerad undersökning av ett nära fokuserat objekt. Detta bibehåller ett bredare sammanhang, som visas på IPT-displayen, vilket gör det möjligt att på ett effektivt sätt hitta och navigera, samtidigt som det möjliggör en detaljerad undersökning av den region som är av intresse för en positionskänslig högupplösningsdisplay (TDID). Utvärdering mot ett icke-augmenterat CAVE-liknande IPT-system visar hur effektivt detta tillvägagångssätt är för att göra det möjligt för användarna att både utforska modellen på ett effektivt sätt lösa fina detaljer.
Aspin tog en inledande studie av förstärkt inåtvänd prospektering och navigering i CAVE-liknande IPT-system REF.
7,878,599
An initial study into augmented inward looking exploration and navigation in CAVE-like IPT systems
{'venue': '2008 IEEE Virtual Reality Conference', 'journal': '2008 IEEE Virtual Reality Conference', 'mag_field_of_study': ['Computer Science']}
2,196
Mänsklig actionigenkänning i 3D-skelettsekvenser har dragit till sig mycket forskning. Nyligen, Long Short-Term Memory (LSTM) nätverk har visat lovande prestanda i denna uppgift på grund av sina styrkor i att modellera beroenden och dynamik i sekventiella data. Eftersom inte alla skelettleder är informativa för åtgärdsigenkänning, och de irrelevanta lederna ofta för med sig buller som kan försämra prestandan, måste vi ägna mer uppmärksamhet åt de informativa. Det ursprungliga LSTM-nätverket har dock inte någon explicit uppmärksamhetsförmåga. I detta dokument föreslår vi en ny klass av LSTM-nätverk, Global Context-Aware Attention LSTM (GCA-LSTM), för skelettbaserad åtgärdsigenkänning. Detta nätverk kan selektivt fokusera på de informativa lederna i varje ram av varje skelettsekvens genom att använda en global sammanhangscell. För att ytterligare förbättra vårt näts uppmärksamhetsförmåga inför vi också en mekanism för återkommande uppmärksamhet, med vilken nätverkets uppmärksamhetsprestanda kan förbättras gradvis. Dessutom föreslår vi ett stegvist utbildningsprogram för att utbilda vårt nätverk på ett effektivt sätt. Vår strategi uppnår toppmodern prestanda på fem utmanande referensdatauppsättningar för skelettbaserad åtgärdsigenkänning.
Liu m.fl. REF föreslog ett GCA-LSTM-nätverk (Global Context-Aware long-term memory), som introducerar en återkommande uppmärksamhetsmodell för LSTM och därmed selektivt fokuserar på de informativa kopplingarna med avseende på global kontextinformation.
3,225,725
Skeleton Based Human Action Recognition with Global Context-Aware Attention LSTM Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']}
2,197
Effektiv samordning mellan ett stort antal heterogena agenter lovar att revolutionera det sätt på vilket vissa komplexa uppgifter, som att reagera på katastrofer i städerna, kan utföras. Men toppmoderna samordningsalgoritmer är inte kapabla att uppnå effektiv och effektiv samordning när ett team är mycket stort. Med utgångspunkt i den senaste tidens framgångsrika tokenbaserade algoritmer för uppgiftstilldelning och informationsutbyte har vi utvecklat en integrerad och effektiv strategi för effektiv samordning av storskaliga team. Vi använder polletter för att inkapsla allt som behöver delas av teamet, inklusive information, uppgifter och resurser. De polletter är effektivt dirigeras genom laget genom användning av lokala beslut teoretiska modeller. Varje token används för att förbättra routing av andra polletter vilket leder till en dramatisk prestandaförbättring när algoritmerna arbetar tillsammans. Vi presenterar resultat från ett genomförande av denna strategi som visar dess förmåga att samordna stora team.
Tokenbaserade metoder har visat sig vara effektiva i storskaliga teamsamordningsuppgifter, inklusive uppgiften att dela information REF.
1,656,491
An integrated token-based algorithm for scalable coordination
{'venue': "AAMAS '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,198
Abstract-Hardware teknik för betrodda datorer, eller betrodda utförande miljöer (TEEs), har snabbt mognat under det senaste årtiondet. I själva verket är TEE:er på gränsen till utbredd komoditisering med den senaste introduktionen av Intel Software Guard Extensions (Intel SGX). Trots en sådan snabb utveckling av TEE ligger programvaruteknik för TEE betydligt efter sin hårdvarumotsvarighet, och för närvarande har endast en utvald grupp forskare förmånen att få tillgång till denna teknik. För att ta itu med detta problem utvecklar vi en öppen källkodsplattform, kallad OpenSGX, som emulerar Intel SGX hårdvarukomponenter på instruktionsnivå och tillhandahåller nya system programvarukomponenter som nödvändigtvis krävs för fullständig TEE-prospektering. Vi förväntar oss att OpenSGX ramverket kan fungera som en öppen plattform för SGX forskning, med följande bidrag. Först utvecklar vi en fullt fungerande, instruktionskompatibel emulator av Intel SGX för att möjliggöra prospektering av programvara/hårdvara design utrymme, och utveckling av enklavprogram. OpenSGX tillhandahåller en plattform för SGX-utveckling, vilket innebär att den tillhandahåller inte bara emulering utan även operativsystemkomponenter, en enklavprogramlastare/paketerare, ett OpenSGX-användarbibliotek, felsökning och prestandaövervakning. För det andra, för att visa OpenSGX användningsfall, tillämpade vi OpenSGX för att skydda känslig information (t.ex. katalog) av Tor noder och utvärdera deras potentiella prestanda effekter. Därför tror vi att OpenSGX har stor potential för bredare samhällen att starta ny forskning på snart-för-vara Intel SGX.
OpenSGX REF tillhandahåller en öppen arkitektur för SGX-forskning.
1,099,081
OpenSGX: An Open Platform for SGX Research
{'venue': 'NDSS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,199
Abstract-En av de mest lovande tillvägagångssätten för att övervinna osäkerheten i millimetervåg (mm-våg) kommunikation är att distribuera dual-mode små basstationer (SBS) som integrerar både mm-våg och mikrovåg (μW) frekvenser. I detta dokument föreslås ett nytt tillvägagångssätt för att analysera och hantera rörlighet i gemensamma mmwave-μW-nätverk. Det föreslagna tillvägagångssättet utnyttjar cachelagring på enhetsnivå tillsammans med kapaciteten hos SBS i två lägen för att minimera överlämningsfel och minska energiförbrukningen vid interfrekvensmätning. För det första erhålls grundläggande resultat för cachingkapaciteten för det föreslagna nätverksscenariot i två steg. För det andra analyseras effekten av caching på antalet överlämningar (HO), energiförbrukning och det genomsnittliga överlämningsfelet (HOF). Sedan formuleras det föreslagna problemet med cacheaktiverad mobilitetshantering som ett dynamiskt matchande spel mellan mobila användarutrustningar (MUE) och SBS. Målet med detta spel är att hitta en distribuerad HO mekanism som, under nätverksbegränsningar på HOFs och begränsade cachestorlekar, tillåter varje MUE att välja mellan: 1) utföra en HO till ett mål SBS; 2) vara ansluten till makrocell basstation; eller 3) utföra en transparent HO genom att använda cached innehåll. För att lösa detta dynamiska matchningsproblem föreslås en ny algoritm och dess konvergens till en tvåsidig dynamisk stabil HO-policy för MUES och mål SBS bevisas. Numeriska resultat bekräftar de analytiska härledningarna och visar att den föreslagna lösningen avsevärt kommer att minska både HOF- och energiförbrukningen för MUE, vilket resulterar i en förbättrad mobilitetshantering för heterogena trådlösa nät med mm-vågskapacitet. Index Terms-Millimeter våg kommunikation, spelteori, resursfördelning. O. Semiari är verksam vid institutionen för elektroteknik, Georgia Southern University, Statesboro, GA 30458 USA (e-post: osemiari@ georgiasydern.edu). W. Saad är med Department of Electrical and Computer Engineering, Virginia Tech, Blacksburg, VA 24061 USA (e-post: [email protected]). M. Bennis är verksam vid Centrum för trådlös kommunikation, Uleåborgs universitet, 90014 Uleåborg, Finland och även vid
I REF presenteras ett nytt tillvägagångssätt för att hantera rörlighet genom multianslutning i trådlösa nätverk genom att utnyttja cachelagring från enhet till enhet.
1,050,012
Caching Meets Millimeter Wave Communications for Enhanced Mobility Management in 5G Networks
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,200
Vi beskriver tillägg av stöd för dynamisk delegering av myndighet (DOA) mellan användare inom flera administrativa områden, till XACML-modellen för godkännande beslutsfattande. DOA antas via utfärdande av referenser från en användare till en annan, och följer den rollbaserade passerkontrollmodellen. Vi presenterar de problem och krav som en sådan delegationsmodell kräver, de politiska element som krävs för att kontrollera delegationskedjorna och en beskrivning av den strukturerade lösningen. Vi föreslår en ny konceptuell enhet som kallas credential validation service (CVS) att arbeta tillsammans med XACML PDP. Vi beskriver vårt genomförande av CVS och presenterar prestandamätningar för validering av delegerade kreditkedjor.
Chadwick m.fl. I REF föreslogs en utvidgning av XACML för att stödja dynamisk delegering mellan användare och användare av befogenheter för delegering av roller från en användare till en annan.
32,779,198
Adding support to XACML for multi-domain user to user dynamic delegation of authority
{'venue': 'International Journal of Information Security', 'journal': 'International Journal of Information Security', 'mag_field_of_study': ['Computer Science']}
2,201
Reeb-grafen är en konstruktion som studerar ett topologiskt utrymme genom linsen i en verkligt uppskattad funktion. Det har i stor utsträckning använts i tillämpningar, men dess användning på verkliga data innebär att det är önskvärt och allt mer nödvändigt att ha metoder för jämförelse av Reeb diagram. Nyligen har flera metoder för att definiera mätvärden på utrymmet för Reeb grafer presenterats. I detta dokument fokuserar vi på två: det funktionella distorsionsavståndet och det mellanliggande avståndet. Den förra är baserad på GromovHausdorff avstånd, medan den senare använder ekvivalensen mellan Reeb grafer och en viss klass av kosheaves. Båda definieras dock genom att konstruera en nära-ismorfism mellan de två graferna i studien. I detta papper, visar vi att de två mätvärdena är starkt likvärdiga på utrymmet för Reeb grafer. I synnerhet, Detta ger ett omedelbart bevis på flaskhals stabilitet för persistensdiagram i termer av Reeb graf interleaving avstånd.
Bauer, Munch och Wang REF etablerar en stark motsvarighet mellan det funktionella distorsionsavståndet och det mellanliggande avståndet på utrymmet för alla Reeb-grafer, vilket innebär att de två avstånden ligger inom en konstant faktor för varandra.
2,454,361
Strong Equivalence of the Interleaving and Functional Distortion Metrics for Reeb Graphs
{'venue': '31st International Symposium on Computational Geometry (SoCG 2015), LIPIcs 34 (2015), 461-475', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,202
Abstract-I detta papper studerar vi kooperativa kontrollalgoritmer med hjälp av parvisa interaktioner, för att kontrollera flockar av obemannade fordon. En viktig fråga är den roll som potentialen spelar i koncernens stabilitet och eventuella sammanbrott i takt med att antalet agenter ökar. Vi modellerar en uppsättning samverkande Dubins fordon med fast vridvinkel och hastighet. Vi utför simuleringar för ett stort antal agenter och vi visar experimentella insikter om modellen på en testbädd med ett litet antal fordon. I båda fallen finns kritiska tröskelvärden mellan sammanhängande, stabil och skalbar flockning och spridning eller kollapsande rörelse i gruppen.
Likaså Chuang studerade kontrollera stora flockar av obemannade fordon med pairwise potentialer REF.
9,981,047
Multi-Vehicle Flocking: Scalability of Cooperative Control Algorithms using Pairwise Potentials
{'venue': 'Proceedings 2007 IEEE International Conference on Robotics and Automation', 'journal': 'Proceedings 2007 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Engineering', 'Computer Science']}
2,203
ABSTRACT Populariteten av smarta enheter och ökningen av åtkomsthastigheten är att byta Internet från länkcentrisk (host-to-host) till innehållscentrerad (användare-to-content). Eftersom det primära syftet med användarna är att hitta deras önskade innehåll från Internet, kommer den traditionella värd-till-värd-strukturen att orsaka massor av oanvändbar trafik och minska nätverkets effektivitet. Därefter introduceras innehållscentrerade nätverk (CCN) för att lösa denna pinsamma situation. Som en nyfödd teknik har CCN inte till fullo utforskat sin potential att utnyttja den kunskap som finns inbäddad i innehållet. Därför föreslår vi att man förbättrar CCN:s kapacitet att ta fram information med hjälp av metoder för att driva data. Speciellt lägger vi till en etikett vektor som innehåller funktionsbeskrivningar för varje innehåll, och sedan tillämpa neurala nätverk (NN) för att modellera användarnas beteende och förutsäga deras svar på nytt innehåll. För att ytterligare öka prediktionsnoggrannheten och de potentiella fördelarna grupperar vi användare i olika celler. Beteendet uppsättningar av användare i en cell med olika tidsintervall modelleras av en serie av NNs. Dessutom utformar vi en ny cachepolicy för att förbättra nätverkens cacheeffektivitet. Fördelar i andra aspekter och framtida forskningsinriktningar diskuteras också. Kvantitativa utvärderingar av den föreslagna modellen och cachepolitiken presenteras i slutet av detta dokument. INDEX TERMS Mobil partition, innehållscentriskt nätverk, etikett vektor, neuralt nätverk.
I referens REF, lägga till en etikett vektor som innehåller inslag av innehållsobjekt, NN används för att modellera användarnas beteende och förutsäga deras svar på nya innehållsobjekt.
29,777,295
Content Centric Network With Label Aided User Modeling and Cellular Partition
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
2,204
Abstract-Mobile cloud computing möjliggör avlastning av beräkning tungt program, såsom för spel, objektigenkänning eller videobehandling, från mobila användare (MUs) till molnet eller molnservrar, som är anslutna till trådlösa åtkomstpunkter, antingen direkt eller genom finit kapacitet backhaul länkar. I detta dokument undersöks utformningen av ett mobilt molndatasystem genom att föreslå gemensam optimering av dator- och kommunikationsresurser i syfte att minimera den energi som krävs för avlastning över alla MU:er under latensbegränsningar på applikationslagret. Den föreslagna konstruktionen står för multiantenna upplänk och nedlänk störande sändningar, med eller utan samarbete på nedlänken, tillsammans med tilldelning av backhaul och beräkningsresurser och användarval. De resulterande konstruktion optimeringsproblem är nonconvex, och stationära lösningar beräknas med hjälp av successiv konvex approximation tekniker. Numeriska resultat illustrerar fördelarna med den gemensamma optimeringen av dator- och kommunikationsresurser när det gäller energilatens, samt effekterna av systemparametrar, såsom backhaulkapacitet, och nätverksarkitekturen.
I REF, för att minimera avlastning energiförbrukning, författarna studerade gemensam optimering av dator- och radioresurser med tanke på latens begränsningar i ett MEC-nätverk.
17,492,072
Joint Uplink/Downlink Optimization for Backhaul-Limited Mobile Cloud Computing With User Scheduling
{'venue': 'IEEE Transactions on Signal and Information Processing over Networks', 'journal': 'IEEE Transactions on Signal and Information Processing over Networks', 'mag_field_of_study': ['Computer Science']}
2,205
Effektivt karakterisera beteendet hos deformerbara objekt har bred tillämplighet men förblir utmanande. Vi presenterar en ny rotationsinvariant deformationsrepresentation och en ny rekonstruktionsalgoritm för att exakt rekonstruera positionerna och lokala rotationer samtidigt. Meshes kan mycket effektivt rekonstrueras från vår representation genom matris predecomposition, medan samtidigt hårda eller mjuka begränsningar kan flexibelt specificeras med endast positioner av handtag som behövs. Vårt tillvägagångssätt är därför särskilt lämpligt för begränsade deformationer som styrs av exempel, vilket ger betydande fördelar jämfört med de senaste metoderna. Baserat på detta föreslår vi vidare nya datadrivna metoder för mesh deformation och icke-rigid registrering av deformerbara objekt. Båda problemen formuleras konsekvent som att hitta en optimerad modell i formutrymmet som uppfyller gränsbegränsningar, antingen specificerat av användaren, eller enligt skanningen. Genom att effektivt utnyttja kunskapen i formrummet producerar vår metod realistiska deformationsresultat i realtid och producerar högkvalitativa registreringar från en mallmodell till en enda bullrig scan fångad med hjälp av en låg kvalitet djupkamera, outperforming state-of-the-art metoder.
I mer allmänna fall föreslår REF en ny datadriven deformationsrepresentation och utnyttjar givna exempel för att begränsa sannolika deformationer vid icke-rigid registrering.
11,497,912
Efficient and Flexible Deformation Representation for Data-Driven Surface Modeling
{'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,206
Automatisk målstyrd sammansättning av arbetsflöden för informationsbehandling, eller planering av arbetsflöden, har under de senaste åren blivit ett aktivt forskningsområde. Olika arbetsflödesplaneringsmetoder har föreslagits för automatisk applikationsutveckling i system som webbtjänster, strömbehandling och rutnätsberäkning baserat på kompositionsarkitekturer. Betydande framsteg har gjorts när det gäller att utveckla metoder för sammansättning och fastställa regler för sammansättning. Kompositionsreglerna kan specificeras baserat på schema, gränssnitt och semantik-driven kompatibilitet mellan processer och data. Ännu viktigare är att arbetsflödena i många praktiska tillämpningar måste utföras under åtkomstkontroll. I detta dokument introducerar och studerar vi problemet med arbetsflödesplanering under MLS och Bell-LaPadula-modellens begränsningar. Detta problem uppstår i samband med vårt införande av ett storskaligt system för hantering av strömmar som kan behandla en mängd olika undersökningar som lämnas in av slutanvändarna. Genom att utöka välkända resultat från AI-planeringslitteraturen visar vi först att under vissa förenklade antaganden kan arbetsflöden som uppfyller Bell-LaPadula-modellens begränsningar konstrueras i linjär tid. Vidare visar vi att problemet blir NP-komplett när det är tillåtet att använda betrodda nedgraderare för datanedklassificering. Därefter identifierar vi ett antal speciella villkor under vilka arbetsflöden fortfarande kan konstrueras i polynom tid, även när användning av nedgraderare är tillåten. Slutligen analyserar vi effekterna av kinesiska murens begränsningar på komplexiteten i kompositionsproblemet, och beskriver en effektiv algoritm för att komponera arbetsflöden under dessa begränsningar. Den föreslagna metoden kan användas med alla lattice-baserade regler för tillträdeskontroll, inklusive Biba integritetsmodell.
Dessutom Lelarge et al. REF presenterade ett AI planeringsbaserat tillvägagångssätt för automatisk sammansättning av säkra arbetsflöden inom området för strömbehandlingssystem.
3,734,071
Automatic Composition of Secure Workflows
{'venue': 'ATC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,207
Abstract-Long spridning förseningar och låga bithastigheter av problemet med dolda terminaler och exponerade terminaler undervattens akustiska nätverk gör dessa system i grunden i ad-hoc nätverk på grund av bristen på anslutning mellan olika från paketradionät. Som en följd av detta, vissa noder. Många av de nätverksprotokoll som är utformade för radiokanaler är antingen inte tillämpliga, eller har extremt låg effektivitet över En situation av en dold terminal inträffar när en station undervattens akustiska kanaler. Dessa fakta kräver en dedikerad kan inte känna en eller flera noder som kan störa dess utformning av protokoll för ett akustiskt undervattensnätverk. Överföring. En situation av en exponerad terminal uppstår när ett medium passerkontroll protokoll (MAC) lämplig för en station försenar överföring på grund av ett annat hörd undervattens akustiska nätverk föreslås och analyseras. Sändningen som inte skulle kollidera med den. Figur 1 illustrerar protokollet är baserat på en kanal åtkomst disciplin kallas golv förvärv flera tillgång (FAMA) som kombinerar både bärare en situation där noderna A och C är dolda från varje avkänning (CS) och en dialog mellan källan och mottagaren andra. En situation med exponerade terminaler skulle uppstå om C var före dataöverföringen. Under den inledande dialogen ville kontrollöverföringen till D och B starta en sändning till A. B-paket utväxlas mellan källnoden och den avsedda skulle lyssna på kanalen och det skulle skjuta upp sin överföringsdestination nod för att undvika flera sändningar samtidigt. Särskild uppmärksamhet ägnas de nät som inte är fullt tillgängliga.
Den slitsade golv förvärv flera tillgång (S-FAMA) protokoll för UWASN föreslogs i REF.
10,570,268
Slotted FAMA: a MAC protocol for underwater acoustic networks
{'venue': 'OCEANS 2006 - Asia Pacific', 'journal': 'OCEANS 2006 - Asia Pacific', 'mag_field_of_study': ['Engineering']}
2,208
De tekniska byggstenarna finns på plats för att möta sex stora utmaningar för naturliga visualiseringsgränssnitt för att möjliggöra en spännande framtid där naturliga gränssnitt kraftfullt stärker och utökar användningen av visualiseringar inom vetenskap, teknik, konst och humaniora. Förmågan att föreställa sig och interagera med begrepp på nya sätt har alltid varit inneboende i upptäcktsprocessen. Till exempel, Muybridge klassiska stroboskopiska fotografier av hästar ledde till upptäckten att alla fyra av en hästs hovar lämnar marken under en gallop; vid den tiden, denna hypotes kallades "ostödd transit". Da Vincis handritade studier av strömmande vatten informerade inte bara hans konst utan också vetenskapen om hydrodynamik. Idag förlitar sig ingenjörer, forskare och konstnärer rutinmässigt på fysiska modeller och 3D-prototyper-ofta, den fysiska handlingen att röra vid, rotera och kommentera dessa modeller är det som frambringar nya insikter. Tänk om dessa visuella, fysiska och rumsliga mänskliga aktiviteter skulle kunna äga rum i ett virtuellt datavisualiseringsutrymme, där kraftfulla beräkningstekniker skulle kunna kombineras med naturliga mänskliga interaktioner och visuell kommunikation. Nyckeln till att möjliggöra denna spännande framtid för visualisering ligger i att göra de grafiska visualiseringsverktyg som vi bygger sömlöst passar in i arbetsflöden för forskare, ingenjörer och andra användare. Mot det nuvarande datorlandskapet ser vi en logisk väg för att uppnå denna utveckling genom ny forskning i naturliga användargränssnitt för vetenskaplig visualisering-forskning som specifikt tar itu med utmaningarna att införliva nya, naturliga input och display i visualiseringsprocessen. Termen naturliga användargränssnitt används i olika sammanhang, 1 hänvisar ofta till explosionen av multitouch-gränssnitt som blivit populära av nya telefoner, surfplattor och ytdatorer. Ett vanligt, och förenklat, antagande är att endast använda en touch interface producerar "naturlig interaktion". Vi föreställer oss dock naturliga användargränssnitt, liksom väl utformade människa-dator-gränssnitt som möjliggör flytande, ofta moderlösa, interaktion med datorer genom att tolka direkt fysisk eller rumslig ingång, potentiellt från flera användare. Detta koncept kontrasterar mot traditionella PC-baserade gränssnitt som förlitar sig på musen och tangentbordet för inmatning, som inte bara är indirekta former av inmatning utan också fokuserar på en enda interagerande person. Att skapa naturliga gränssnitt kräver att man löser grundläggande forskningsproblem för att göra det möjligt för forskare att mer effektivt interagera med data. Här fokuserar vi specifikt på visualisering med dataset som i sig är två- eller tredimensionella och deras speciella begränsningar, 2 i motsats till att arbeta med mer abstrakta data-ett område där insatser för att utnyttja naturlig interaktion har också nyligen fått dragkraft. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
Att utforma effektiva interaktionsteorier och -metoder betraktas som en huvudutmaning för vetenskaplig visualisering REF.
6,131,654
Reimagining the Scientific Visualization Interaction Paradigm
{'venue': 'Computer', 'journal': 'Computer', 'mag_field_of_study': ['Computer Science']}
2,209
ABSTRACT I detta dokument, online djupinlärning (DL)-baserad kanal estimering algoritm för dubbelt selektiv blekning kanaler föreslås genom att använda de djupa neurala nätverket (DNN). Med korrekt valda ingångar kan DNN inte bara utnyttja funktionerna i kanalvariation från tidigare kanaluppskattningar utan också extrahera ytterligare funktioner från piloter och mottagna signaler. Dessutom kan DNN utnyttja fördelarna med den minsta kvadratuppskattningen för att ytterligare förbättra prestandan för kanaluppskattningen. DNN är först utbildad med simulerade data på ett offline sätt och sedan kunde spåra den dynamiska kanalen på ett online sätt. För att minska prestandanedbrytningen från slumpmässig initiering är en förutbildning utformad för att förfina de inledande parametrarna för DNN med flera epoker av utbildning. Den föreslagna algoritmen drar nytta av DL:s utmärkta inlärnings- och generaliseringsförmåga och kräver ingen förkunskaper om kanalstatistiken. Därför är det mer lämpligt för kommunikationssystem med modellering fel eller icke-stationära kanaler, såsom hög rörlighet vehikulära system, undervattens akustiska system, och molekylära kommunikationssystem. De numeriska resultaten visar att den föreslagna DL-baserade algoritmen överträffar den befintliga estimatorn både vad gäller effektivitet och robusthet, särskilt när kanalstatistiken varierar i tiden. INDEX TERMS Djupt lärande, neurala nätverk, kanaluppskattning, dubbelt selektiv kanal, LS-orienterad ingång, förutbildning.
I REF tränades en DL-baserad kanalskattare först offline med hjälp av simulerade data och sedan dynamiskt justerad online för att effektivt förbättra estimatorns generaliseringsförmåga.
94,778,454
Deep Learning-Based Channel Estimation for Doubly Selective Fading Channels
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
2,210
Vi föreslår ett nytt ramverk för att uppskatta generativa modeller via en kontradiktorisk process, där vi samtidigt utbildar två modeller: en generativ modell G som fångar datadistributionen, och en discriminativ modell D som uppskattar sannolikheten för att ett prov kommer från träningsdata snarare än G. Utbildningsförfarandet för G är att maximera sannolikheten för att D gör ett misstag. Detta ramverk motsvarar ett minimax 2-spelarspel. I utrymmet för godtyckliga funktioner G och D finns en unik lösning, där G återvinner träningsdatadistributionen och D är lika med 1 2 överallt. I det fall där G och D definieras av flerskiktsperceptroner kan hela systemet tränas med backpropagation. Det finns inget behov av någon Markov kedjor eller ovalsade approximativa inference nätverk under vare sig utbildning eller generering av prover. Experiment visar ramens potential genom kvalitativ och kvantitativ utvärdering av de producerade proven.
Typiska GANs REF består av två moduler: en generator och en discriminator.
1,033,682
Generative Adversarial Nets
{'venue': 'NIPS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,211
Abstrakt. I detta papper presenteras hur bildbaserad renderingsteknik för synberoende textur-mapping (VDTM) effektivt kan implementeras med projektiv texturmappning, en funktion som är allmänt tillgänglig i polygon grafik hårdvara. VDTM är en teknik för att generera novellvyer av en scen med ungefär känd geometri som gör maximal användning av en gles uppsättning ursprungliga vyer. Den ursprungliga presentationen av VDTM av Debevec, Taylor och Malik krävde betydande perpixelkomputation och skalade inte väl med antalet originalbilder.I vår teknik, precompute vi för varje polygon den uppsättning originalbilder där det är synligt och skapa en "vy karta" datastruktur som kodar den bästa texturkartan att använda för en regelbundet provade uppsättning möjliga visningsriktningar. För att skapa en ny vy, vykartan för varje polygon är queried att bestämma en uppsättning av högst tre ursprungliga bilder att blanda ihop för att rendera polygonen.Osynliga trianglar skuggas med hjälp av en objekt-utrymme hål-fyllningsmetod. Vi visar hur renderingsprocessen kan effektiviseras för implementering på standardgrafikmaskinvara av polygon, och aktuella resultat av att använda metoden för att göra en storskalig modell av Berkeley klocktornet och dess omgivande campusmiljö.
I REF presenterar författarna hur VDTM effektivt kan implementeras med projektiv texturkartläggning, en funktion som finns i de flesta datorgrafik hårdvara.
2,331,855
Efficient View-Dependent Image-Based Rendering with Projective Texture-Mapping
{'venue': 'ICAT Workshops', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,212
I detta dokument behandlas två inbördes relaterade frågor: i) Med tanke på ett trådlöst ad hoc-nätverk och en samling av källdestinationspar {(si, ti)}, vad är nätverkets maximala kapacitet genomströmning, dvs. Hur snabbt data från källorna till motsvarande destinationer kan överföras i nätet? (ii) Kan nätverksprotokoll utformas som tillsammans leder paketen och schemaöverföringarna till hastigheter som ligger nära maximal kapacitet för överföring? Mycket av det tidigare arbetet fokuserade på slumpmässiga fall och visade analytiska lägre och övre gränser för maximal genomströmningskapacitet. Här ser vi däremot godtyckliga trådlösa nätverk. Vidare studerar vi de algoritmiska aspekterna av ovanstående frågor: målet är att utforma bevisligen bra algoritmer för godtyckliga fall. Vi utvecklar analytiska prestandautvärderingsmodeller och distribuerade algoritmer för * Arbetet stöds av Institutionen för energi under routing och schemaläggning som inkluderar rättvisa, energi och dilatation (path-long) krav och ger en enhetlig ram för att utnyttja nätverket nära sin maximala kapacitet. Motiverade av vissa populära trådlösa protokoll som används i praktiken, utforskar vi också "kortaste sökvägen som" strategier för val av sökväg som maximerar nätverkets dataflöde. De teoretiska resultaten tyder naturligtvis på en intressant klass av trängselmedvetna länkmått som kan direkt anslutas till flera befintliga routingprotokoll såsom AODV, DSR, etc. Vi kompletterar den teoretiska analysen med omfattande simuleringar. Resultaten tyder på att de rutter som erhålls med hjälp av våra länkmått som är medvetna om trängsel genomgående ger högre genomströmning än humleräkningsbaserade kortaste vägmått.
Kumar m.fl. REF utvecklade analytiska modeller för utvärdering av prestanda och distribuerade algoritmer för routing och schemaläggning som innehåller krav på rättvisa, energi och dilatation (path-long) och tillhandahåller en enhetlig ram för användning av nätverket nära dess maximala kapacitet.
14,773,410
Algorithmic aspects of capacity in wireless networks
{'venue': "SIGMETRICS '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,213
Gemenskapens upptäckt och analys är en viktig metod för att förstå organisationen av olika verkliga nätverk och har tillämpningar i problem som är så olika som samförståndsbildning i sociala samhällen eller identifiering av funktionella moduler i biokemiska nätverk. För närvarande används algoritmer som identifierar samhällsstrukturer i storskaliga verkliga nätverk kräver en priori information såsom antal och storlek på samhällen eller är beräkning dyrt. I det här dokumentet undersöker vi en enkel algoritm som använder nätverksstrukturen ensam som sin guide och som varken kräver optimering av en fördefinierad objektiv funktion eller förhandsinformation om samhällena. I vår algoritm initieras varje nod med en unik etikett och vid varje steg antar varje nod den etikett som de flesta av dess grannar för närvarande har. I denna iterativa process bildar tätt sammankopplade grupper av noder ett samförstånd om en unik märkning för att bilda samhällen. Vi validerar algoritmen genom att tillämpa den på nätverk vars samhällsstrukturer är kända. Vi visar också att algoritmen tar nästan linjär tid och därför är det beräkningsmässigt billigare än vad som hittills varit möjligt.
En annan viktig forskningsväg är etikettutbredningsalgoritm (LPA) REF.
18,741,059
Near linear time algorithm to detect community structures in large-scale networks
{'venue': 'Physical Review E 76, 036106 (2007)', 'journal': None, 'mag_field_of_study': ['Physics', 'Medicine']}
2,214
Abstract -Testdriven utveckling (TDD) är en av de grundläggande metoderna för agil mjukvaruutveckling och både akademi och praktiker hävdar att TDD i viss utsträckning förbättrar kvaliteten på den kod som produceras av utvecklare. De senaste resultaten tyder dock på att denna praxis inte följs i den utsträckning som föredras av industrin. För att identifiera specifika hinder som begränsar dess industriella antagande har vi genomfört en systematisk litteraturgranskning av empiriska studier som uttryckligen fokuserar på TDD och indirekt behandlar TDD. Vår granskning har identifierat sju begränsande faktorer viz., ökad utvecklingstid, otillräcklig TDD erfarenhet / kunskap, brist på front design, domän och verktyg specifika frågor, brist på utvecklare skicklighet i skriftliga test fall, otillräcklig efterlevnad av TDD protokoll, och äldre kod. Resultaten av denna studie är av särskild betydelse för testvärlden, eftersom den beskriver riktningen för ytterligare detaljerade vetenskapliga undersökningar samt betonar kravet på riktlinjer för att övervinna dessa begränsande faktorer för ett framgångsrikt industriellt antagande av TDD.
I en nyligen genomförd systematisk litteraturöversikt REF identifierades 48 empiriska studier med fokus på att undersöka effekterna av TDD.
5,920,003
Factors Limiting Industrial Adoption of Test Driven Development: A Systematic Review
{'venue': '2011 Fourth IEEE International Conference on Software Testing, Verification and Validation', 'journal': '2011 Fourth IEEE International Conference on Software Testing, Verification and Validation', 'mag_field_of_study': ['Computer Science']}
2,215
Abstrakt. Vi presenterar en automatisk metod för att beskriva kliniskt användbar information om skanning, och för att styra bildtolkning i ultraljud (US) videor av fosterhjärtat. Vår metod kan gemensamt förutsäga synlighet, siktplan, placering och orientering av fosterhjärtat på ramnivå. Bidragen från tidningen är trefaldiga: i) en konvolutionell neural nätverk arkitektur är utvecklad för en multitask förutsägelse, som beräknas genom att glida en 3 × 3 fönster rumsligt genom konvolutionella kartor. ii) En ankarmekanism och intersektion över unionens (IoU) förlust tillämpas för att förbättra lokaliseringsnoggrannheten. iii) en återkommande arkitektur är utformad för att rekursivt beräkna regionala konvolutionella funktioner tidsmässigt över sekventiella ramar, så att varje förutsägelse kan betingas på hela videon. Detta resulterar i en rumsligtemporal modell som exakt beskriver detaljerade hjärtparametrar i utmanande amerikanska videor. Vi rapporterar resultat på en verklig klinisk dataset, där vår metod uppnår prestanda på samma sätt som expertanteckningar.
Huang m.fl. använde RNN för att uppskatta placeringen och orienteringen av hjärtat i ultraljudsvideor REF.
29,631,179
Temporal HeartNet: Towards Human-Level Automatic Analysis of Fetal Cardiac Screening Video
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
2,216
Abstract-We undersöka förhållandet mellan medium passerkontroll (MAC) fördröjning och ultra-bred bandbredd (UWB) spårning noggrannhet. Vi kvantifierar detta förhållande genom att härleda grundläggande lägre gränser för spårning noggrannhet och MAC fördröjning för godtyckliga finita nätverk. Vår huvudsakliga slutsats är att de traditionella sätten att öka noggrannheten (t.ex. att öka antalet ankare eller transmissionskraft) kan leda till stora MAC-förseningar. Vi utvärderar två metoder för att minska dessa förseningar.
I REF fokuserar de på förhållandet mellan MAC-fördröjning och UWB-noggrannhet i förhållande till antalet ankare och kommunikationsomfånget av noder under rörlighet.
18,348,467
On the Trade-off Between Accuracy and Delay in UWB Navigation
{'venue': 'IEEE Communications Letters', 'journal': 'IEEE Communications Letters', 'mag_field_of_study': ['Computer Science']}
2,217
Abstrakt. Människors informationssökande kan spänna över flera sessioner, och kan samarbeta i naturen. Befintliga kommersiella erbjudanden stöder inte effektivt sökare att dela, spara, samarbeta eller se över sin information. I detta demodokument presenterar vi Querium: ett nytt sessionsbaserat samarbetssystem som låter användare söka, dela, återuppta och samarbeta med andra användare. Querium ger ett antal nya sökfunktioner i en samarbetsmiljö, inklusive relevans återkoppling, frågefusion, facetterad sökning och sökhistorik. Samverkanssökning, flersessionssökning, sökgränssnitt. Samverkans- och flersessionssökande sökuppgifter omfattar en betydande del av webbsökningen [1, 5, 6], inklusive uppgifter som shopping, reseplanering och litteraturöversikter. Eftersom informationsbehovet vanligtvis inte är tillfredsställt med en enda fråga, bör verktyg som stöder sådan undersökande sökning hantera människors frågehistorik för att underlätta reflektion och sense-making [4]. Befintliga sökverktyg misslyckas också med att stödja samarbete väl [2]. Querium organiserar sökaktiviteter i uppgifter. Varje uppgift har sina egna medarbetare, frågor, dokument, etc. Ett dokument som är användbart för en uppgift kanske inte är användbart för en annan. Querium gör det möjligt för människor att dela upp sitt arbete i logiska enheter och tillämpa olika standarder av relevans för dokument. Querium stöder samverkanssökning genom att underlätta kommunikationen mellan samarbetspartners och genom att samordna deras informationssökande aktiviteter. Kommunikation förmedlas [8] genom utbyte av frågor och hämtade dokument, genom ihållande "lik" och "mot" åtgärder på dokument, och genom chatt och kommentera faciliteter. Medan system som SearchTillsammans [7] endast stöder kommunikation samordnar Querium sökaktiviteten genom att ange vilka dokument som redan har hittats (kanske av andra) och genom att tillåta användare att se sökresultat från kombinationer av frågor. Relevans feedback operationer gör det möjligt för människor att hitta ytterligare dokument utan att skriva komplexa sökord frågor. Genom att hålla reda på vilka dokument som hämtades genom vilken fråga, Querium stöder sessionsbaserade sense-making genom att låta människor reflektera över sökprocessen samt dess resultat. Således kan aktiviteten filtreras för att visa endast de nya, användbara, eller de synliga dokumenten, hjälpa människor att göra känsla av ökande resultat. Histogrammen talar om för en sökare vid en blick om ett dokument är nytt eller har hämtats
Till exempel ger Querium Ref användare många sökfunktioner såsom relevans återkoppling, frågefusion, facetterad sökning och sökhistorik, och underlättar samarbetssökning.
34,908,124
Querium: a session-based collaborative search system
{'venue': 'In Proceedings of the 34th European conference on Advances in Information Retrieval, ECIR’12', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,218
Cloud computing erbjuder allmännyttiga IT-tjänster till användare över hela världen. Baserat på en pay-as-you-go modell, möjliggör det att vara värd för omfattande tillämpningar från konsumenter, vetenskapliga, och affärsområden. Datacenter hosting Cloud-applikationer förbrukar dock enorma mängder elektrisk energi, vilket bidrar till höga driftskostnader och koldioxidavtryck till miljön. Därför behöver vi Green Cloud computing-lösningar som inte bara kan minimera driftskostnaderna utan också minska miljöpåverkan. I detta dokument definierar vi en arkitektonisk ram och principer för energieffektiv datormoln. Baserat på denna arkitektur presenterar vi vår vision, öppna forskningsutmaningar, resursförsörjning och allokering av algoritmer för energieffektiv hantering av molndatamiljöer. Den föreslagna energi-medvetna tilldelning heuristics tillhandahållande data center resurser till klientapplikationer på ett sätt som förbättrar energieffektiviteten i datacenteret, samtidigt som den förhandlade Kvalitet på tjänsten (QoS). I detta dokument genomför vi i synnerhet en undersökning av forskning inom energieffektiv databehandling och föreslår: a) arkitektoniska principer för energieffektiv hantering av moln, b) energieffektiv resursfördelningspolitik och schemaläggningsalgoritmer med beaktande av QoS-förväntningar och anordningarnas egenskaper för effektanvändning, och c) ett antal öppna forskningsutmaningar som kan ge betydande fördelar för både resursleverantörer och konsumenter. Vi har validerat vår strategi genom att genomföra en prestandautvärderingsstudie med hjälp av verktygslådan CloudSim. Resultaten visar att Cloud computing-modellen har en enorm potential eftersom den erbjuder betydande kostnadsbesparingar och visar stor potential för att förbättra energieffektiviteten under dynamiska arbetsbelastningsscenarier.
Beloglazov m.fl. definierade en arkitektonisk ram och principer för energieffektiva molntjänster REF.
11,199,785
Energy-Aware Resource Allocation Heuristics for Efficient Management of Data Centers for Cloud Computing
{'venue': 'Future Gener. Comput. Syst.', 'journal': 'Future Gener. Comput. Syst.', 'mag_field_of_study': ['Computer Science']}
2,219
Konvolutionella neurala nätverk (CNN) revolutionerar maskininlärning, men de utgör betydande datorella utmaningar. På senare tid har många FPGA-baserade acceleratorer föreslagits för att förbättra CNN:s prestanda och effektivitet. Nuvarande metoder konstruera en enda processor som beräknar CNN-lagren ett i taget; processorn är optimerad för att maximera genomströmningen vid vilken samlingen av lager beräknas. Detta tillvägagångssätt leder dock till ineffektiva konstruktioner eftersom samma processorstruktur används för att beräkna CNN-skikt med radikalt varierande dimensioner. Vi presenterar ett nytt CNN-acceleratorparadigm och en åtföljande automatiserad designmetod som delar upp de tillgängliga FPGA-resurserna i flera processorer, som var och en är skräddarsydd för en annan delmängd av CNN-konvolutionsskikten. Genom att använda samma FPGA resurser som en enda stor processor, flera mindre specialiserade processorer öka beräkningseffektiviteten och leda till en högre total genomströmning. Vår designmetodik uppnår 3,8x högre genomströmning än den toppmoderna metoden för att utvärdera den populära AlexNet CNN på en Xilinx Virtex-7 FPGA. För de nyare SqueezeNet och GoogLeNet, är upphastigheterna 2,2x och 2,0x.
REF delar statiskt upp en stor motor (PE) som används för att accelerera konvolutionsskikten i flera små PE.
4,781,460
Maximizing CNN Accelerator Efficiency Through Resource Partitioning
{'venue': "ISCA '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,220
ABSTRACT Nuvarande allmänna minne allocators ger inte tillräcklig hastighet eller flexibilitet för modem högpresterande applikationer. Högjusterade allmänna ändamål allokatorer har per-operation kostnader runt hundra cykler, medan kostnaden för en operation i en anpassad minne allocator kan vara bara en handfull cykler. För att uppnå hög prestanda skriver programmerare ofta anpassade minnesallokatorer från grunden - en svår och felbenägen process. I detta dokument presenterar vi en flexibel och effektiv infrastruktur för att bygga minnesallokatorer som bygger på C++-mallar och arv. Detta nya tillvägagångssätt gör det möjligt för programmerare att bygga anpassade och allmänna allokatorer som "höga lager" som kan komponeras utan att ådra sig några extra omkostnader eller extra programmeringskostnader. Vi visar att denna infrastruktur förenklar allokatorkonstruktionen och resulterar i allokatorer som antingen matchar eller förbättrar prestandan hos kraftigt inställda allokatorer skrivna i C, inklusive Kingsley-allokatorn och GNU obstaek-biblioteket. Vi visar vidare att denna infrastruktur kan användas för att snabbt bygga en generell allokator som har prestanda jämförbar med Lea allocator, en av de bästa enprocessor allocator tillgängliga. På så sätt demonstrerar vi ett rent, lättanvändt allokatorgränssnitt som sömlöst kombinerar kraften och effektiviteten hos ett antal allmänna och anpassade allokatorer inom en och samma applikation.
Dessutom föreslår författarna till REF en infrastruktur av C++-skikt som kan användas för att förbättra prestandan hos allmänna allokatorer.
7,501,376
Composing high-performance memory allocators
{'venue': "PLDI '01", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,221
Den nyligen framtagna IEEE 802.15.6-standarden tillhandahåller flera prioriterade tjänster för trådlösa Body Area Networks (WBAN). Kategorisera en nod som hög / låg prioritet enhet leder till att tilldelas en relativt större / mindre påstående sannolikhet (CP), respektive. I innehållsbaserade protokoll, halvering av det maximala CP-värdet (CP max ) vägen ner till dess minimivärde (CP min ) har ingen hänsyn till enheten väntar paket i bufferten. Dessutom krympte denna halveringsprocess enhetens chans att utmana den nuvarande tidsluckan som påverkar genomströmningen och den genomsnittliga paketservicetiden. I detta dokument föreslår vi en ändring av IEEE 802.15.6-standarden för införande av ny CP-dynamik baserad på apparatens kölängd. De numeriska resultaten visar en förbättring av den föreslagna dynamiken jämfört med de konventionella när det gäller genomströmning, fördröjning och datapaket minskningshastighet. Dessutom visade det föreslagna systemet en stabilitet i ett realistiskt kanaltillstånd.
I REF, Fatehy et al. förlängde protokollet IEEE 802.15.6 om ankomst- och avgångstider för Aloha genom att utnyttja sannolikheter för strid som beaktade köernas längd.
206,974,837
A novel contention probability dynamism for IEEE 802.15.6 standard
{'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']}
2,222
Abstract-Information ålder är en nyligen införd metrisk för att representera friskheten av information i kommunikationssystem. Vi undersöker åldersminimering i ett trådlöst nätverk och föreslår en ny metod för att optimera schemaläggningsstrategin för att leverera alla meddelanden så färska som möjligt. Specifikt anser vi att en uppsättning länkar som delar en gemensam kanal. Sändaren vid varje länk innehåller ett visst antal paket med tidsstämplar från en informationskälla som genererade dem. Vi tar itu med problemet med länköverföringsplanering med målet att minimera den totala åldern. Detta problem med minimiåldersplanering (MASP) skiljer sig från att minimera tiden eller fördröjningen för att leverera paketen i fråga. Vi modellerar MASP matematiskt och bevisar att det är NP-hård i allmänhet. Vi identifierar även dragbara fall samt optimala förhållanden. Ett heltal linjär programmering formulering tillhandahålls för prestanda benchmarking. Dessutom utvecklas en brantaste åldersnedstigningsalgoritm med bättre skalbarhet. Numerisk studie visar att genom att använda det optimala schemat minskar den totala åldern betydligt jämfört med andra schemaläggningsstrategier.
I REF, författarna fann att schemaläggning problem för att minimera åldern i trådlösa nätverk under fysiska störningar begränsningar är NP-hård.
49,338,541
Optimal Link Scheduling for Age Minimization in Wireless Systems
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science']}
2,223
I detta dokument behandlas problemet med subrymdskluster under buller. Specifikt studerar vi beteendet hos Sparse Subspace Clustering (SSC) när antingen kontradiktoriskt eller slumpmässigt buller läggs till de omärkta inmatningsdatapunkter som antas ligga i en förening av lågdimensionella subrymder. Vi visar att en modifierad version av SSC är bevisligen effektiv för att korrekt identifiera de underliggande subrymderna, även med bullriga data. Detta utvidgar tidigare garantier för denna algoritm i det ljudlösa fallet till den praktiska inställningen och motiverar framgången för SSC i en klass av verkliga tillämpningar.
Referensreferensreferensdokumentet behandlar problemet med subrymdskluster under buller.
18,844,593
Noisy Sparse Subspace Clustering
{'venue': 'ICML', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,224
Sammanfattning av denna webbsida: Enhanced Depth Imaging (EDI) optisk koherenstomografi (OCT) ger högupplösta tvärsnittsbilder av åderhinnan in vivo, och används därför i många kliniska studier. Kvantifieringen av koroida beror dock på manuella märkningar av två gränser, Bruchs membran och det koroidala-sklerala gränssnittet. Denna märkningsprocess är tröttsam och subjektiv av inter-observer skillnader, därför är automatisk segmentering av koroida skiktet mycket önskvärt. I den här artikeln presenterar vi en snabb och exakt algoritm som kan segmentera åderhinnan automatiskt. Bruch's membran upptäcks genom att söka pixel med den största lutningsvärdet över näthinnan pigmentepitel (RPE) och koroidal-sklerala gränssnitt avgränsas genom att hitta den kortaste vägen av grafen som bildas av dal pixlar med hjälp av Dijkstra algoritm. Experimenten som jämför automatiska segmenteringsresultat med manuella märkningar utförs på 45 EDI-OCT-bilder och medelvärdet av Dice's Coefficient är 90,5 %, vilket visar att algoritmen överensstämmer med de manuella märkningarna. Behandlingstiden för varje bild är ca 1,25 sekunder.
Gränssnittet mellan åderhinnan och skleran med hjälp av Dijkstra algoritm undersöktes REF.
15,540,900
Automatic segmentation of the choroid in enhanced depth imaging optical coherence tomography images
{'venue': 'Biomedical Optics Express', 'journal': 'Biomedical Optics Express', 'mag_field_of_study': ['Computer Science', 'Medicine']}
2,225
Abstract-Många värdbaserade anomali detektion tekniker har föreslagits för att upptäcka kodinjicering attacker på servrar. De allra flesta, dock, är mottagliga för "mimicry" attacker där den injicerade koden maskerades som den ursprungliga servern programvara, inklusive att returnera rätt service svar, medan genomföra sin attack. "Behavioral avstånd", genom vilken två olika repliker bearbetning samma ingångar övervakas kontinuerligt för att upptäcka skillnader i deras låga nivå (system-call) beteenden och därmed potentiellt kompromissen av en av dem, har föreslagits för att upptäcka imitering attacker. I den här artikeln presenterar vi ett nytt tillvägagångssätt för beteendemässig distansmätning med hjälp av en ny typ av dold Markov-modell, och presenterar en arkitektur som förverkligar detta nya tillvägagångssätt. Vi utvärderar detektionskapaciteten hos detta tillvägagångssätt med hjälp av syntetisk arbetsbelastning och inspelad arbetsbelastning hos produktionswebb- och spelservrar, och visar att det upptäcker intrång med betydligt större noggrannhet än ett tidigare förslag om mätning av beteendeavstånd. Vi beskriver också utformningen och genomförandet av en ny arkitektur, som drar nytta av virtualisering för att mäta beteendeavstånd. Vi tillämpar vår arkitektur för att implementera intrångstoleranta webb- och spelservrar, och genom spårdrivna simuleringar visar vi att den upplever måttliga prestandakostnader även när tröskelvärden ställs in för att upptäcka smygattacker.
Gao m.fl. REF använder Hidden Markov Model (HMM) för att upptäcka komprometterade kopior.
14,451,773
Beyond Output Voting: Detecting Compromised Replicas Using HMM-Based Behavioral Distance
{'venue': 'IEEE Transactions on Dependable and Secure Computing', 'journal': 'IEEE Transactions on Dependable and Secure Computing', 'mag_field_of_study': ['Computer Science']}
2,226
Abstrakt. Tänk på en (robotisk) upptäcktsresande som börjar utforska en okänd terräng från sin basstation. Eftersom upptäcktsresanden endast har begränsad kommunikationsradie, är det nödvändigt att upprätthålla en linje av robotiska relästationer efter upptäcktsresanden, så att på varandra följande stationer är inom kommunikationsradien. Denna linje måste börja i basstationen och sluta vid upptäcktsresanden. I det enkla scenario som behandlas här antar vi en hinderfri terräng, så att den kortaste anslutningen (den som behöver det minsta antalet relästationer) är en rak linje. Vi anser att en upptäcktsresande som går en godtycklig, typiskt slingrande väg, och definiera en mycket enkel, intuitiv, helt lokal, distribuerad strategi för relästationer vår Go-To-The-Middle strategi - att upprätthålla en linje från basstationen till roboten så kort som möjligt. Förutom definitionen av denna strategi presenterar vi en analys av dess resultat under olika antaganden. För det statiska fallet visar vi en gräns för konvergenshastigheten, för det dynamiska fallet presenterar vi experimentella utvärderingar som visar kvaliteten på vår strategi under olika typer av rutter som upptäcktsresanden kan använda. I vår forskning undersöker vi utforskandet av en planar terräng utan hinder. För att uppnå detta mål används en upptäcktsresande som börjar sitt arbete på en basstation och gör framsteg för att samla information om hela terrängen. För att bygga en kommunikationsväg mellan denna upptäcktsresande och basstationen använder vi mobila relästationer. Dessa relästationer är små, mobila robotar
Ett annat relaterat scenario presenterades i REF, där upptäcktsresanden och basstationen i den statiska inställningen motsvarar våra stationer.
16,460,597
Maintaining Communication Between an Explorer and a Base Station
{'venue': 'BICC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,227
Associeringsregeln gruvproblem kan betraktas som ett multiobjektivt problem snarare än som ett enda mål. Åtgärder som stöd räkna, begriplighet och intressanthet, som används för att utvärdera en regel kan ses som olika mål förening regel gruvdrift problem. Stöd räkna är antalet poster, som uppfyller alla villkor som finns i regeln. Detta mål ger riktigheten i de regler som hämtats från databasen. Förståelsen mäts med antalet attribut som ingår i regeln och försöker kvantifiera regelns begriplighet. Intressanthet mäter hur mycket intressant regeln är. Med dessa tre åtgärder som mål regel gruvdrift problem, använder denna artikel en Pareto baserad genetisk algoritm för att extrahera några användbara och intressanta regler från någon marknadsbasket typ databas. Baserat på experiment, har algoritmen befunnits lämplig för stora databaser.
Ghosh och Nath, 2004 introducerar begriplighet, intressanthet, och förtroende faktor som tre intressanta åtgärder regler med målet att modellera föreningsregeln gruvdrift problem som ett multiobjektivt problem REF.
3,231,946
Multi-objective rule mining using genetic algorithms
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,229
På grund av deras överlägsna förmåga att bevara sekvensinformation över tid, Long Short-Term Memory (LSTM) nätverk, en typ av återkommande neurala nätverk med en mer komplex beräkningsenhet, har fått starka resultat på en mängd olika sekvensmodellering uppgifter. Den enda underliggande LSTM-strukturen som hittills har undersökts är en linjär kedja. Men naturligt språk uppvisar syntaktiska egenskaper som naturligt skulle kombinera ord till fraser. Vi introducerar Tree-LSTM, en generalisering av LSTM:er till trädstrukturerade nätverkstopologier. Tree-LSTMs överträffar alla befintliga system och starka LSTM-baslinjer för två uppgifter: att förutsäga den semantiska relationen mellan två meningar (SemEval 2014, Uppgift 1) och känsloklassificering (Stanford Sentiment Treebank).
REF introducerade Child-Sum Tree LSTM och Nary Tree LSTM.
3,033,526
Improved Semantic Representations From Tree-Structured Long Short-Term Memory Networks
{'venue': 'Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers)', 'journal': 'Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers)', 'mag_field_of_study': ['Computer Science']}
2,230
Bakgrund: Kliniska prövningar är en av de viktigaste beviskällorna för vägledning av evidensbaserad praxis och utformning av nya försök. Merparten av denna information finns dock endast tillgänglig i fritext - t.ex. i tidskriftspublikationer - som är arbetsintensiv för att bearbeta systematiska utvärderingar, metaanalyser och andra evidenssyntesstudier. Detta dokument presenterar ett automatiskt system för informationsextraktion, kallat ExaCT, som hjälper användare med att lokalisera och extrahera viktiga försöksegenskaper (t.ex. behörighetskriterier, urvalsstorlek, läkemedelsdosering, primära resultat) från artiklar i fulltexttidskrifter som rapporterar om randomiserade kontrollerade prövningar (RCT). Metoder: ExaCT består av två delar: en informationsextraktion (IE) motor som söker artikeln efter textfragment som bäst beskriver testegenskaperna, och en webbläsare-baserat användargränssnitt som gör det möjligt för mänskliga granskare att bedöma och ändra de föreslagna urvalen. I IE-motorn används en statistisk textklassificering för att lokalisera de meningar som har störst sannolikhet att beskriva ett testkarakteristikum. Därefter tillämpar IE-motorns andra steg enkla regler för dessa meningar för att extrahera textfragment som innehåller målets svar. Samma tillvägagångssätt används för alla 21 testkarakteristika som valts ut för denna studie. Resultat: Vi utvärderade ExaCT med hjälp av 50 tidigare osedda artiklar som beskriver RCT. Texten klassificerare (första etappen) kunde återvinna 88 % av relevanta meningar bland sina fem toppkandidater (top5 recall) med den högsta kandidaten relevant i 80 % av fallen (top1 precision). Precision och återkallande av utvinningsreglerna (andra etappen) var 93 % respektive 91 %. Tillsammans kunde de två stegen i extraktionsmotorn ge (delvis) korrekta lösningar i 992 av 1050 testuppgifter (94 %), med en majoritet av dessa (696) som representerade helt korrekta och fullständiga svar. Slutsatser: Våra experiment bekräftade ExaCT:s tillämplighet och effektivitet. Dessutom visade de att en kombination av en statistisk metod och "svaga" utvinningsregler kan identifiera en mängd olika studieegenskaper. Systemet är flexibelt och kan utökas för att hantera andra egenskaper och dokumenttyper (t.ex. studieprotokoll).
I REF använder författarna de två metoderna för att extrahera de viktigaste egenskaperna hos kliniska prövningar från artiklar i fulltexttidskrifter som rapporterar om RCT.
14,094,659
ExaCT: automatic extraction of clinical trial characteristics from journal publications
{'venue': 'BMC Medical Informatics and Decision Making', 'journal': 'BMC Medical Informatics and Decision Making', 'mag_field_of_study': ['Medicine', 'Computer Science']}
2,231
Abstract-This paper presenterar resultaten av en studie om effekterna av dataaggregation för multi-mål spårning i trådlösa sensornätverk. Trådlösa sensornätverk är normalt begränsade i kommunikationsbandbredd. De noder som implementerar det trådlösa sensornätverket är själva begränsade i datorkraft och har vanligtvis en begränsad batteritid. Dessa observationer är erkända och kombinerade för att komma till effektiva mål spårning metoder. Den viktigaste frågan som ska besvaras är hur man exakt spårar flera mål som korsar ett område som observerats av ett trådlöst sensornätverk, samtidigt som mängden nätverkstrafik begränsas. Att begränsa mängden nättrafik minskar den bandbredd som krävs och minskar den energi som krävs. Olika datakraftsmedvetna dataaggregationsstrategier undersöks. De har testats i en simuleringsmiljö och jämförts med varandra. Resultaten av simuleringarna visar tydligt fördelarna med de nya dataaggregationsstrategierna när det gäller energiförbrukning och spårningsnoggrannhet.
Maarten Ditzel et al REF presenterade resultaten av en studie om effekterna av dataaggregation för multi-målspårning i trådlösa sensornätverk.
7,652,245
Multi-target Data Aggregation and Tracking in Wireless Sensor Networks
{'venue': 'J. Networks', 'journal': 'J. Networks', 'mag_field_of_study': ['Computer Science']}
2,232
Den (två) kärnan i en hypergraf är den maximala samlingen av hyperkanter inom vilken ingen vertex visas endast en gång. Det är av betydelse i uppgifter som att effektivt lösa ett stort linjärt system över GF [2], eller iterativ avkodning av lågdensitet paritet-kontrollkoder som används över binära raderingskanalen. Liknande strukturer uppstår i en mängd olika NP-hård combinatorial optimering och beslutsproblem, från vertex cover till satisfiability. För en jämnt vald slumpmässig hypergraf av m = nρ hörn och n hyperkanter, var och en bestående av samma fasta tal l ≥ 3 hörn, storleken på kärnan uppvisar för stora n en första ordningen fas övergång, förändras från o(n) för ρ > ρ c till en positiv bråkdel av n för ρ < ρ c, med en övergångsfönsterstorlek (n −1/2 ) runt ρ c > 0. Analysera motsvarande "bladborttagning" algoritm, vi bestämmer den associerade finita storlek skalning beteende. I synnerhet om ρ är inne i skalningsfönstret (mer exakt, ρ = ρ c + rn −1/2 ), sannolikheten för att ha en kärna av storlek (n) har en gräns strikt mellan 0 och 1, och en ledande korrigering av ordningen (n −1/6 ). Korrigeringen medger en skarp karakterisering i termer av fördelningen av en Brownsk rörelse med kvadratisk förändring, från vilken den ärver skalningen med n. Detta beteende förväntas vara universellt för en bred samling av kombinatoriska problem.
I samma dokument påpekade de (se Ref Anmärkning 2.6) att deras tekniker var tillämpliga på en mängd olika egenskaper hos kärnan "i skalsystemet" ρ = ρ c + rn −1/2 där ρ c är tröskeln för uppkomsten av kärnan.
9,976,730
Finite size scaling for the core of large random hypergraphs
{'venue': None, 'journal': 'Annals of Applied Probability', 'mag_field_of_study': ['Mathematics']}
2,233
Att känna igen 3D-objekt ur godtycklig synvinkel är ett av de mest grundläggande problemen i datorseendet. En stor utmaning ligger i övergången mellan 3D-geometrin hos objekt och 2D-representationer som på ett robust sätt kan matchas med naturliga bilder. De flesta metoder bygger på 2D naturliga bilder antingen som den enda källan till utbildningsdata för att bygga en implicit 3D representation, eller genom att berika 3D-modeller med naturliga bildfunktioner. I detta dokument går vi tillbaka till idéerna från de tidiga dagarna av datorseende, genom att använda 3D-objekt modeller som den enda informationskällan för att bygga en multi-view objekt klass detektor. I synnerhet använder vi dessa modeller för att lära sig 2D-form som på ett robust sätt kan matchas med 2D-naturbilder. Våra experiment bekräftar giltigheten av vårt tillvägagångssätt, som överträffar nuvarande toppmoderna tekniker på en multi-view detektionsdata uppsättning.
Stark och Al. REF använder 3D CAD-modeller för att lära sig en multi-view objektklass detektor.
6,284,859
Back to the Future: Learning Shape Models from 3D CAD Data
{'venue': 'BMVC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,234
Negation detektion är en viktig komponent i kliniska information extraktionssystem, eftersom hälsojournal text innehåller resonemang där läkaren utesluter olika diagnoser genom att förneka dem. Många system för negationsdetektering bygger på negationssignaler (t.ex. Inte), men endast ett fåtal studier har undersökt om meningarnas syntaktiska struktur kan användas för att bestämma omfattningen av dessa signaler. Vi har i detta dokument jämfört tre olika system för negation detektion i svensk klinisk text (NegEx, PyConTextNLP och SynNeg), som har olika metoder för att bestämma omfattningen av negation. NegEx använder avståndet mellan kuren och sjukdomen, PyConTextNLP bygger på en lista över samband som begränsar omfattningen av en kö, och i SynNeg gränserna för mening enheter, som tillhandahålls av en syntaktisk parser, begränsa omfattningen av köer. De tre systemen gav liknande resultat och upptäckte negation med en F-poäng på cirka 80%, men att använda en tolk hade fördelar vid hantering av längre, komplexa meningar eller korta meningar med motstridiga påståenden.
Den fungerar på grundval av en förteckning över samband för att begränsa tillämpningsområdet för de olika riktlinjerna REF.
877,372
Negation Scope Delimitation in Clinical Text Using Three Approaches: NegEx; PyConTextNLP and SynNeg
{'venue': 'NODALIDA', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,235
Naturlig språkgenerering (NLG) är uppgiften att generera naturligt språk från en mening representation. Regelbaserade tillvägagångssätt kräver domänspecifika och manuellt konstruerade språkliga resurser, medan de flesta corpusbaserade tillvägagångssätt bygger på anpassade utbildningsdata och/eller frasmallar. De senare behövs för att begränsa sökutrymmet för den strukturerade förutsägelseuppgift som definieras av de ojusterade datamängderna. I detta arbete föreslår vi användning av imitation lärande för strukturerad förutsägelse som lär sig en inkrementell modell som hanterar det stora sökområdet samtidigt som man undviker att uttryckligen räkna upp det. Vi anpassade det lokalt optimala Learning to Search (Chang et al., 2015) ramverket som gör att vi kan träna mot icke-deponerbara förlustfunktioner såsom BLEU eller ROUGE poäng utan att anta guld standard anpassningar. Vi utvärderar vår strategi för tre datauppsättningar med hjälp av både automatiska åtgärder och mänskliga bedömningar och uppnår resultat jämförbara med de state-of-the-art metoder som utvecklats för var och en av dem. Dessutom har vi gjort en analys av dataseten som undersöker gemensamma frågor med NLG-utvärdering.
REF föreslog att man skulle använda imitationslärande för att träna NLG-modeller, där det lokalt optimala Learning to Search-ramverket antogs för att träna mot icke-deponerbara förlustfunktioner.
9,997,677
Imitation learning for language generation from unaligned data
{'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,236
Vi föreslår en ny metod för att bygga wavelet transformer av funktioner som definieras på hörnen i en godtycklig ändlig viktad graf. Vårt tillvägagångssätt är baserat på att definiera skalning med hjälp av grafanalogen för Fourier-domänen, nämligen spektral nedbrytning av den diskreta grafen Laplacian L. Med tanke på en våg som genererar kärnan g och en skala parameter t, definierar vi den skalade vågettoperatören T t g = g (tL). Den spektral graf vågetter bildas sedan genom att lokalisera denna operatör genom att tillämpa den till en indikator funktion. Med förbehåll för ett tillåtligt villkor på g, definierar detta förfarande en inverterbar omvandling. Vi utforskar wavelets lokaliseringsegenskaper i gränsen för fina skalor. Dessutom presenterar vi en snabb Chebysjev polynomial approximation algoritm för beräkning av transform som undviker behovet av diagonalisering L. Vi belyser potentiella tillämpningar av transform genom exempel på wavelets på grafer som motsvarar en mängd olika problemdomäner.
REF föreslog en metod för att konstruera wavelet transform på grafer.
5,593,503
Wavelets on Graphs via Spectral Graph Theory
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,237
Abstrakt. Genom att ta det semantiska objektets tolkningsuppgift som ett exemplariskt tillämpningsscenario föreslår vi nätverket Graph Long Short-Term Memory (Graph LSTM), som är generaliseringen av LSTM från sekventiella data eller flerdimensionella data till allmänna grafstrukturerade data. I synnerhet, i stället för att jämnt och fast dela en bild till pixlar eller fläckar i befintliga multidimensionella LSTM-strukturer (t.ex. rad, rutnät och Diagonala LSTMs [1] [2]), tar vi varje godtyckligt formad superpixel som en semantiskt konsekvent nod och konstruerar adaptivt en oriktad graf för varje bild, där superpixlarnas rumsliga förhållanden naturligt används som kanter. Grafen LSTM, som är uppbyggd på en sådan adaptiv graftopologi, är mer naturligt anpassad till bildens visuella mönster (t.ex. objektgränser eller utseendelikheter) och ger en mer ekonomisk informationsspridningsväg. Dessutom, för varje optimering steg över Graph LSTM, föreslår vi att använda ett förtroende-drivet system för att uppdatera dolda och minnestillstånd av noder gradvis tills alla noder uppdateras. Dessutom, för varje nod, glömmer grindar är adaptivt lärt att fånga olika grader av semantisk korrelation med angränsande noder. Omfattande utvärderingar av fyra olika semantiska objekttolkade datauppsättningar visar att vår Graph LSTM är mycket överlägsen andra toppmoderna lösningar.
Liang m.fl. I REF introduceras Graph Long Short-Term Memory (LSTM) som generalisering från sekventiella data till grafstrukturerade data.
7,886,345
Semantic Object Parsing with Graph LSTM
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
2,238
Abstract-This paper föreslår en datadriven strategi för att upptäcka byte åtgärder och topologi övergångar i distributionsnät. Den baseras på realtidsanalys av tidsseriespänningsmätningar. Analysmetoden bygger på data från högpresterande phasormätningsenheter (μPMUs eller synkhrophasors) för distributionsnät. Det viktigaste är att tidsserier mätdata som tagits från distributionsnätet har specifika mönster som representerar statsövergångar såsom topologiförändringar. Den föreslagna algoritmen bygger på en jämförelse av faktiska spänningsmätningar med ett bibliotek av signaturer som härletts från den möjliga topologisimuleringen. IEEE 33-bus-modellen används för algoritmvalidering.
Till exempel Cavraro et al. REF föreslår en datadriven onlinealgoritm för att upptäcka en byteshändelse som ändrar topologin för ett distributionsnät genom att jämföra en trendvektor byggd från PMU-data med ett givet bibliotek av signaturer som härrör från möjliga topologiska förändringar.
3,145,145
Data-Driven Approach for Distribution Network Topology Detection
{'venue': '2015 IEEE Power & Energy Society General Meeting', 'journal': '2015 IEEE Power & Energy Society General Meeting', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,239
ABSTRACT Bredbandssensorbaserad kognitiv radio med samtidig trådlös information och kraftöverföring kan utformas för effektiv spektrum- och energianvändning. Vi strävar först efter att maximera den mängd energi som skördas av alla energiskördare med begränsningar i fråga om hastighet, sändningseffekt, interferens och subkanaltilldelning. På grund av den icke-konvexitet av det formulerade problemet, vi slappna av heltal variabel och införa en hjälpvariabel för att omvandla det ursprungliga problemet till ett konvext problem. Därefter används Lagrangian och subgradienta metoder för att få fram optimala lösningar. Detta system kan dock leda till en allvarlig rättvisefråga mellan olika länkar. Mot bakgrund av detta föreslår vi ytterligare ett system för energiskördande för att uppnå största möjliga rättvisa. I synnerhet strävar vi efter att maximera den energi som skördas av den värsta enskilda länken. Vi visar att detta problem kan lösas på ett liknande sätt som problemet med den samlade energimaximeringen. Simuleringsresultat presenteras för att verifiera den föreslagna algoritmens konvergens- och rättviseprestanda, och för att avslöja en ny avvägning mellan nätavverkad energi och avkänningstid. INDEX TERMS Kognitiv radio, skördad energi, max-min rättvisa, Lagrange metod, kompromiss.
Referensreferensreferensen syftade till att maximera mängden skördad energi med hänsyn till begränsningar av hastighet, sändningseffekt och subkanaltilldelning för det första.
12,099,434
Optimal Resource Allocation for Harvested Energy Maximization in Wideband Cognitive Radio Network With SWIPT
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
2,240
Vi introducerar factored language models (FLMs) och generalized parallell backoff (GPB). En FLM representerar ord som buntar av funktioner (t.ex. morfologiska klasser, stammar, datadrivna kluster, etc.).), och framkallar en sannolikhetsmodell som täcker sekvenser av buntar snarare än bara ord. GPB utvidgar standardbackoff till allmänna villkorade sannolikhetstabeller där variabler kan vara heterogena typer, där det inte finns någon uppenbar naturlig (temporal) backoff-ordning och där flera dynamiska backoff-strategier är tillåtna. Dessa metoder genomfördes under workshopen i JHU 2002 som tillägg till verktygslådan för språkmodellering i SRI. Detta papper ger inledande perplexitet resultat på både CallHome Arabiska och på Penn Treebank Wall Street Journal artiklar. Signifikant kan FLM med GPB producera bigrams med signifikant lägre perplexitet, ibland lägre än högt optimerade trigram vid baseline. I ett multi-pass taligenkänning sammanhang, där bigrams används för att skapa första-pass bigram lattices eller N-bästa listor, dessa resultat är mycket relevanta.
På samma sätt användes Factored Language Models (FLMs) Ref för att förbättra WER.
8,457,271
Factored Language Models And Generalized Parallel Backoff
{'venue': 'Human Language Technology Conference And Meeting Of The North American Association For Computational Linguistics - Short Papers', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,241
Abstract-I trådlösa distribuerade lagringssystem är lagringsnoder anslutna via trådlösa kanaler, som sänds i naturen. Detta papper utnyttjar denna unika funktion för att utforma en effektiv reparationsmekanism, kallad broadcast reparation, för trådlösa distribuerade lagringssystem med flera-node fel. Eftersom trådlösa kanaler normalt är bandbredd begränsade, förespråkar vi en ny åtgärd för reparation prestanda kallas reparation-överföring bandbredd, som mäter det genomsnittliga antalet paket som överförs av helper noder per misslyckad nod. Den grundläggande avvägningen mellan lagringsmängd och bandbredd för reparation och överföring erhålls. Det visas att broadcast reparation överträffar kooperativ reparation, vilket är den grundläggande reparationsmetoden för trådbundna distribuerade lagringssystem med multi-node fel, när det gäller lagringseffektivitet och reparation-transmission bandbredd, vilket ger en bättre kompromisskurva.
Det centraliserade reparationsproblemet undersöktes också i samband med trådlösa distribuerade lagringssystem, där lagringsnoder är fullt anslutna av en gemensam kanal REF.
17,169,589
Broadcast repair for wireless distributed storage systems
{'venue': '2015 10th International Conference on Information, Communications and Signal Processing (ICICS)', 'journal': '2015 10th International Conference on Information, Communications and Signal Processing (ICICS)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,242