src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Sammanfattning av denna webbsida: Bland flera olika metoder för extraktion av handavtryck är den HOG-baserade metoden attraktiv och fungerar väl mot förändringar i belysning och skuggning av handavtrycksbilder. Dock saknar det fortfarande robusthet att extrahera palmprint funktioner i olika rotationsvinklar. För att lösa detta problem, presenterar detta papper en hybrid funktion extraktionsmetod, som heter HOG-PGF som kombinerar histogrammet för orienterade gradienter (HOG) med en styrbar Gaussian filter (PGF) för att utveckla en effektiv palmprint igenkänningsmetod. Tillvägagångssättet börjar med att bearbeta alla handavtryck bilder av David Zhang metod att segmentera endast regionen av intressen. Därefter extraherade vi palmprint funktioner baserat på hybriden HOG-SGF funktion extraktion metod. Sedan användes en optimerad auto-encoder (AE) för att minska dimensionaliteten hos de extraherade funktionerna. Slutligen tillämpades en snabb och robust regulariserad extrem inlärningsmaskin (RELM) för klassificeringsuppgiften. Under utvärderingsfasen av det föreslagna tillvägagångssättet utfördes ett antal experiment på tre allmänt tillgängliga databaser med handavtryck, nämligen MS-PolyU för multispektrala handavtrycksbilder och CASIA och Tongji för kontaktlösa handavtrycksbilder. Experimentellt visar resultaten att det föreslagna tillvägagångssättet överträffar de befintliga state-of-the-art-metoderna även när ett litet antal utbildningsprover används.
Gumaei m.fl. föreslog en metod för handavtryck igenkänning med hjälp av synliga och multispektral sensor bilder baserat på histogram av orienterade gradienter (HOG) med en styrbar Gaussian filter (SGF) REF.
21,755,456
An Effective Palmprint Recognition Approach for Visible and Multispectral Sensor Images
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Engineering', 'Computer Science']}
14,869
Djupt lärande modeller för grafer har avancerat den senaste tekniken på många uppgifter. Trots sin framgång på senare tid är det inte mycket man vet om deras robusthet. Vi undersöker träningstidsattacker på graf neurala nätverk för nodklassificering som stör den diskreta grafstrukturen. Vår kärnprincip är att använda meta-gradienter för att lösa de bilevel problem underliggande träningstid attacker, främst behandla grafen som en hyperparameter för att optimera. Våra experiment visar att små grafer genomgående leder till en kraftig minskning av prestanda för grafkonvolutionella nätverk, och även överföring till oövervakade inbäddningar. Anmärkningsvärt nog, de störningar som skapas av vår algoritm kan missrikta grafen neurala nätverk så att de utför värre än en enkel baslinje som ignorerar all relationell information. Våra attacker tar inte någon kunskap om eller tillgång till målgruppen klassificerare.
I REF studerades också utbildnings-tidsattacker på GNN för nodklassificering genom att störa grafstrukturen.
67,855,601
Adversarial Attacks on Graph Neural Networks via Meta Learning
{'venue': 'International Conference on Learning Representations (ICLR), New Orleans, LA, USA, 2019', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
14,870
Convex polyhedra används ofta till ungefärliga uppsättningar av tillstånd av program som involverar numeriska variabler. Manipuleringen av konvex polyhedra bygger på den så kallade dubbla beskrivningen, bestående av att betrakta en polyhedron både som en uppsättning lösningar av ett system av linjära ojämlikheter, och som konvexa skrov av ett system av generatorer, dvs. en uppsättning hörn och strålar. Kostnaden för dessa manipulationer är i hög grad beroende av antalet numeriska variabler, eftersom storleken på varje representation kan vara exponentiell i rummets dimension. I detta dokument undersöker vi några sätt att minska dimensionen: Å ena sidan, när en polyhedron uppfyller affine ekvationer, dessa ekvationer kan naturligtvis användas för att eliminera vissa variabler. Å andra sidan, när grupper av variabler är orelaterade med varandra, innebär detta att polyhedron är i själva verket en Cartesian produkt av polyhedra av lägre dimensioner. Att upptäcka sådana kartesiska faktorer är inte särskilt svårt, men vi anpassar också verksamheten till arbete med kartesiska produkter. Slutligen utökar vi tillämpligheten av Cartesian factoring genom att tillämpa lämplig variabel förändring, för att maximera factoring.
Ett relaterat tillvägagångssätt är factoring av polyhedra REF: när en polyhedron P är en kartesisk produkt P 1 ×....
7,407,983
Some ways to reduce the space dimension in polyhedra computations
{'venue': None, 'journal': 'Formal Methods in System Design', 'mag_field_of_study': ['Computer Science']}
14,871
Att upptäcka små föremål är notoriskt utmanande på grund av deras låga upplösning och bullriga representation. Befintliga objekt detektion pipelines ofta upptäcka små objekt genom att lära representationer av alla objekt på flera skalor. Prestandavinsten för sådana ad hoc-arkitekturer är dock vanligtvis begränsad till att betala av beräkningskostnaden. I detta arbete tar vi itu med problemet med att upptäcka små objekt genom att utveckla en enda arkitektur som internt lyfter representationer av små objekt till "super-upplösta", uppnå liknande egenskaper som stora objekt och därmed mer diskriminerande för detektion. För detta ändamål föreslår vi en ny Perceptual Generative Adversarial Network (Perceptual GAN) modell som förbättrar små objekt upptäckt genom att begränsa representation skillnad av små objekt från de stora. Specifikt, dess generator lär sig att överföra upplevda dåliga representationer av de små objekten till super-upplösta som liknar riktigt stora objekt för att lura en konkurrerande discriminator. Samtidigt dess discriminator konkurrerar med generatorn för att identifiera den genererade representationen och inför ett ytterligare perceptuellt krav - genererade representationer av små objekt måste vara fördelaktigt för detektionsändamål - på generatorn. Omfattande utvärderingar av de utmanande Tsinghua-Tencent 100K [45] och Caltech [9]-riktmärket visar tydligt hur överlägset Perceptual GAN är när det gäller att upptäcka små föremål, inklusive trafikskyltar och fotgängare, över väletablerade state-of-the-arts.
I stället använder REF ett Generative Adversarial Network (GAN) för att bygga funktioner i ett konvolutionsnätverk som är oskiljaktigt mellan små och stora föremål i samband med en trafikskylt och detektion av fotgängare.
6,704,804
Perceptual Generative Adversarial Networks for Small Object Detection
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
14,872
I detta dokument ges de viktigaste definitionerna av pålitlighet, ett generiskt begrepp som inkluderar som specialfall attribut som tillförlitlighet, tillgänglighet, säkerhet, sekretess, integritet, hållbarhet osv. Grundläggande definitioner ges först. De kommenteras sedan, och kompletteras med ytterligare definitioner, som tar itu med hoten mot pålitlighet (fel, fel, fel) och attributen pålitlighet. Diskussionen om attributen omfattar förhållandet mellan pålitlighet och säkerhet, överlevnadsförmåga och pålitlighet. Nyckelord: Tillförlitlighet, tillgänglighet, tillförlitlighet, säkerhet, sekretess, integritet, underhållbarhet, säkerhet, överlevnadsförmåga, pålitlighet, fel, fel, fel. Tillhandahållandet av korrekta dator- och kommunikationstjänster har varit ett problem för deras leverantörer och användare sedan de första dagarna. I julinumret 1834 av Edinburgh Review publicerade Dr Dionysius Lardner artikeln "Babbages beräkningsmotor", där han skrev: "Den mest säkra och effektiva kontrollen av fel som uppstår i beräkningsprocessen är att samma beräkningar görs av separata och oberoende datorer; och denna kontroll görs ännu mer avgörande om de gör sina beräkningar med olika metoder". 2 Det måste noteras att termen "dator" i föregående citat avser en person som utför beräkningar, och inte den "kalkylerande motorn". Den första generationen elektroniska datorer (från 1940 till mitten av 50-talet) använde ganska opålitliga komponenter, varför praktiska tekniker användes för att förbättra deras tillförlitlighet, såsom felkoder, dubblering med jämförelse, triplikation med röstning, diagnostik för att lokalisera misslyckade komponenter, etc. Samtidigt J. von Neumann [von Neumann 1956], E. F. Moore och C. E. Shannon [Moore & Shannon 1956], och deras efterträdare utvecklade teorier om att använda redundans för att bygga tillförlitliga logiska strukturer från mindre tillförlitliga komponenter, vars fel maskerades av förekomsten av flera överflödiga komponenter. Teorierna om maskering redundans förenades av W. H. Pierce som begreppet misslyckande tolerans 1965 [Pierce 1965]. År 1967, A. Avižienis integrerad maskering med praktiska tekniker för feldetektering, feldiagnos, och återhämtning i begreppet feltoleranta system [Avižienis 1967]. Inom området för modellering av tillförlitlighet var den stora händelsen införandet av täckningskonceptet av Bouricius, Carter och Schneider [Bouricius et al. 1969]............................................................... Arbetet med programvara feltolerans initierades av Elmendorf [Elmendorf 1972], senare kompletterades det med återhämtning block [Randell 1975], och av N-version programmering [Avižienis & Chen, 1977]. [Laprie 1992], där den engelska texten också översattes till franska, tyska, italienska och japanska. I denna bok listades avsiktliga fel (dålig logik, intrång) tillsammans med oavsiktliga fel (fysiska fel, konstruktionsfel eller interaktionsfel). Förberedande forskning om integrering av feltolerans och försvar mot avsiktligt skadliga fel, dvs. säkerhetshot, inleddes i mitten av 80-talet [Dobson & Randell 1986], [Joseph & Avižienis 1988], [Fray et al. 1986]................................................................. Den första IFIP-arbetskonferensen om tillförlitliga data för kritiska tillämpningar (DCCA) hölls 1989. Detta och de sex arbetskonferenser som följde främjade samverkan mellan tillförlitlighets- och säkerhetsgrupper och främjade integreringen av säkerhet (konfidentiellhet, integritet och tillgänglighet) i ramen för tillförlitlig databehandling. Sedan 2000 har DCCA:s arbetskonferens tillsammans med FTCS blivit en del av den internationella konferensen om tillförlitliga system och nätverk (DSN). Tillförlitlighet och dess hot: En taxonomi I detta avsnitt presenterar vi en grundläggande uppsättning definitioner (i fetstil) som kommer att användas under hela diskussionen om taxonomi för tillförlitlig databehandling. Definitionerna är tillräckligt allmänna för att täcka hela spektrumet av dator- och kommunikationssystem, från individuella logiska grindar till nätverk av datorer med mänskliga operatörer och användare. Ett system i vår taxonomi är en enhet som interagerar med andra entiteter, d.v.s. andra system, inklusive hårdvara, programvara, människor och den fysiska världen med dess naturliga fenomen. Dessa andra system är miljön i det givna systemet. Systemgränsen är den gemensamma gränsen mellan systemet och dess omgivning. Dator- och kommunikationssystem kännetecknas av fyra grundläggande egenskaper: funktionalitet, prestanda, pålitlighet och kostnad. Dessa fyra fastigheter påverkas kollektivt av två andra egenskaper: användbarhet och anpassningsförmåga. Funktionen hos ett sådant system är vad systemet är avsett att göra och beskrivs av den funktionella specifikationen i fråga om funktionalitet och prestanda. Tillförlitlighet och kostnader har separata specifikationer. Ett systems beteende är vad systemet gör för att genomföra sin funktion och beskrivs av en sekvens av tillstånd. Det totala tillståndet för ett givet system är uppsättningen av följande tillstånd: beräkning, kommunikation, lagrad information, sammankoppling och fysisk kondition. Ett systems struktur gör det möjligt för det att skapa beteendet. Ur strukturell synvinkel är ett system en uppsättning komponenter som binds samman för att interagera, där varje komponent är ett annat system, etc. Rekursionen upphör när en komponent anses vara atomär: någon annan inre struktur kan inte urskiljas, eller är inte av intresse och kan ignoreras. Den tjänst som levereras av ett system (leverantören) är dess beteende som det uppfattas av dess användare; en användare är ett annat system som tar emot tjänsten från leverantören. Den del av leverantörens systemgräns där tjänsten levereras är servicegränssnittet. Den del av leverantörens totala tillstånd som är begriplig vid servicegränssnittet är dess externa tillstånd; den återstående delen är dess interna tillstånd. Den levererade tjänsten är en sekvens av leverantörens externa stater. Vi noterar att ett system kan vara en leverantör eller samtidigt en användare med avseende på ett annat system, dvs. leverera tjänsten till och ta emot tjänsten från det andra systemet. Det är vanligt att ha en hierarkisk syn på en systemstruktur. Förhållandet består av, eller bryts ner i, inducerar en hierarki; men det avser endast förteckningen över systemkomponenter. En hierarki som tar hänsyn till systemets beteende är relationen använder [Parnas 1974, Ghezzi et al. Vi har fram till nu använt singular för funktion och service. Ett system implementerar i allmänhet mer än en funktion och levererar mer än en tjänst. Funktion och tjänst kan således ses som sammansatt av funktionsobjekt och tjänsteobjekt. För enkelhetens skull kommer vi helt enkelt att använda plural-funktionerna, tjänsterna - när det är nödvändigt att skilja mellan flera funktioner eller tjänster. Korrekt service levereras när tjänsten implementerar systemfunktionen. Ett tjänstefel är en händelse som inträffar när den levererade tjänsten avviker från korrekt tjänst. En tjänst misslyckas antingen på grund av att den inte överensstämmer med den funktionella specifikationen eller på grund av att denna specifikation inte på ett tillfredsställande sätt beskriver systemfunktionen. Ett tjänstefel är en övergång från korrekt tjänst till felaktig tjänst, dvs. till att inte implementera systemfunktionen. Perioden för leverans av felaktig tjänst är ett tjänsteavbrott. Övergången från felaktig service till korrekt service är en servicerenovering. Avvikelsen från korrekt tjänst kan anta olika former som kallas service fellägen och rankas enligt fel svårighetsgrader. En detaljerad taxonomi för fellägen presenteras i avsnitt 4. Eftersom en tjänst är en sekvens av systemets externa tillstånd innebär ett tjänstefel att minst ett (eller flera) externt tillstånd i systemet avviker från det korrekta drifttillståndet. Avvikelsen kallas ett fel. Den bedömda eller hypotetiska orsaken till ett fel kallas ett fel. I de flesta fall orsakar ett fel först ett fel i servicetillståndet för en komponent som är en del av systemets interna tillstånd och den externa staten påverkas inte omedelbart. Av detta skäl är definitionen av ett fel: den del av systemets totala tillstånd som kan leda till dess efterföljande tjänstefel. Det är viktigt att notera att många fel inte når systemets yttre tillstånd och orsakar ett misslyckande. Ett fel är aktivt när det orsakar ett fel, annars är det vilande. När den funktionella specifikationen för ett system innehåller en uppsättning av flera funktioner, kan ett fel på en eller flera av de tjänster som implementerar funktionerna lämna systemet i ett försämrat läge som fortfarande erbjuder en delmängd av nödvändiga tjänster till användaren. I specifikationen kan flera sådana lägen identifieras, t.ex. långsam service, begränsad service, räddningstjänst osv. Här säger vi att systemet delvis har misslyckats med sin funktionalitet eller prestanda. Utvecklingsfel och tillförlitlighetsfel som diskuteras i avsnitt 4 kan också vara partiella misslyckanden. Tillförlitlighet och dess hot: En Taxonomi5 Den allmänna, kvalitativa, definitionen av tillförlitlighet är: förmågan att leverera tjänster som med rätta kan lita på. I denna definition betonas behovet av rättfärdigande av förtroende. Den alternativa kvantitativa definition som ger kriteriet för att avgöra om tjänsten är tillförlitlig är: ett systems tillförlitlighet är förmågan att undvika tjänstefel som är mer frekventa och allvarligare än vad som är godtagbart för användaren/användarna. Som utvecklats under de senaste tre decennierna, pålitlighet är ett integrerande koncept som omfattar följande attribut: • tillgänglighet: beredskap för korrekt tjänst, • pålitlighet: kontinuitet av korrekt tjänst, • säkerhet: avsaknad av katastrofala konsekvenser för användare och miljö, • sekretess: avsaknad av obehörigt utlämnande av information, • integritet: avsaknad av felaktiga systemförändringar, • underhållbarhet: förmåga att genomgå, modifieringar och reparationer. Säkerhet är den samtidiga förekomsten av a) tillgänglighet endast för auktoriserade användare, b) sekretess, och c) integritet med "otillåten" betyder "otillåten". Tillförlitlighetsspecifikationen för ett system måste innehålla krav på tillförlitlighetsattribut när det gäller den godtagbara frekvensen och svårighetsgraden av fel för de angivna felklasserna och en given användningsmiljö. En eller flera attribut kan inte krävas alls för ett visst system. Taxonomi för attributen pålitlighet presenteras i avsnitt 5. Under de senaste femtio åren har många metoder utvecklats för att uppnå egenskaperna pålitlighet. Dessa metoder kan grupperas i fyra huvudkategorier: • förebyggande av fel: medel för att förhindra förekomst eller införande av fel; • feltolerans: medel för att undvika tjänstefel i närvaro av fel; • avlägsnande av fel: medel för att minska antalet och svårighetsgraden av fel; • felprognoser: medel för att uppskatta det nuvarande antalet, den framtida förekomsten, och de sannolika konsekvenserna av fel. Felförebyggande och feltolerans syftar till att ge möjlighet att leverera en tjänst som kan lita på, medan felborttagning och felprognoser syftar till att uppnå förtroende för denna förmåga genom att motivera att de funktionella och tillförlitliga specifikationerna är tillräckliga och att systemet sannolikt kommer att uppfylla dem. FAULTERNAS TAXONOMI detta och nästa avsnitt presenterar vi taxonomi för hot som kan påverka ett system under hela dess liv. Ett systems livscykel består av två faser: utveckling och användning. Utvecklingsfasen omfattar alla aktiviteter från presentation av användarens ursprungliga koncept till beslut att systemet har klarat alla acceptanstester och är redo att användas i användarens miljö. Under utvecklingsfasen samverkar systemet med utvecklingsmiljön och utvecklingsfel kan införas i systemet av miljön. Utvecklingsmiljön i ett system består av följande element: 1. den fysiska världen med sina naturliga fenomen; 2. mänskliga utvecklare, några möjligen saknar kompetens eller har skadliga mål; 3. utvecklingsverktyg: programvara och hårdvara som används av utvecklarna för att hjälpa dem i utvecklingsprocessen; 4. produktion och testanläggningar. Användningsfasen för ett systems livslängd börjar när systemet accepteras för användning och börjar leverera sina tjänster till användarna. Användning består av alternerande perioder av korrekt leverans av tjänster (som ska kallas leverans av tjänster), Taxonomi 7 service avbrott, och service avstängning. Ett tjänsteavbrott orsakas av ett tjänstefel. Det är den period då felaktig tjänst (inklusive ingen tjänst alls) levereras vid servicegränssnittet. En avstängning av en tjänst är ett avsiktligt stopp för en tjänst som utförs av ett auktoriserat företag. Underhållsåtgärder kan äga rum under alla tre perioderna av användningsfasen. Under användningsfasen interagerar systemet med dess användningsmiljö och kan påverkas negativt av fel som härrör från den. Användningsmiljön består av följande element: 1. den fysiska världen med dess naturliga fenomen; 2. administratörerna (inklusive utvecklare): enheter (människor, andra system) som har befogenhet att hantera, ändra, reparera och använda systemet; vissa auktoriserade människor kan sakna kompetens eller ha skadliga mål; 3. användarna: enheter som tar emot tjänster vid tjänstegränssnitten; 4. leverantörerna: enheter som levererar tjänster till systemet vid dess tjänstegränssnitt; 5. fasta resurser: enheter som inte är användare, men tillhandahåller specialiserade tjänster till systemet, såsom informationskällor (t.ex. GPS, tid, etc.).), kommunikationslänkar, kraftkällor, kylluftsflöde osv. 6. inkräktarna: skadliga enheter som inte har någon behörighet men försöker tränga in i systemet och att ändra tjänsten eller stoppa det, ändra systemets funktionalitet eller prestanda, eller att få tillgång till konfidentiell information. De är hackare, skadliga insiders, agenter för fientliga regeringar eller organisationer, och info-terrorister. Som används här, termen underhåll, efter vanlig användning, omfattar inte bara reparationer, men också alla ändringar av systemet som sker under användningsfasen av systemets livslängd. Därför är underhåll en utvecklingsprocess och den föregående diskussionen om utveckling gäller även underhåll. De olika formerna av underhåll sammanfattas i Det är värt att notera att reparation och feltolerans är relaterade begrepp; skillnaden mellan feltolerans och underhåll i detta papper är att underhåll innebär deltagande av en extern agent, t.ex. en reparatör, testutrustning, fjärr omlastning av programvara. Dessutom är reparation en del av felborttagning (under användningsfasen), och felprognoser tar vanligtvis hänsyn till reparationssituationer. Alla fel som kan påverka ett system under dess livstid klassificeras enligt åtta grundläggande synpunkter som visas i figur 3. Klassificeringskriterierna är följande: 1. Den fas av systemets livslängd under vilken felen uppstår: • Utvecklingsfel som uppstår under a) systemutveckling, b) underhåll under användningsfasen, och c) generering av rutiner för att driva eller underhålla systemet. • Driftsfel som uppstår under driftleveransen av användningsfasen. 2. Utgångspunkten är följande: Placeringen av fel med avseende på systemgränsen: • interna fel som har sitt ursprung inom systemgränsen; • externa fel som har sitt ursprung utanför systemgränsen och sprider fel i systemet genom interaktion eller störning. • naturliga fel som orsakas av naturfenomen utan mänskligt deltagande, • mänskliga fel som beror på mänskliga handlingar. Taxonomi 9 4. Den dimension i vilken felen har sitt ursprung: • maskinvarufel (fysiska) som har sitt ursprung i eller påverkar hårdvara; • programvarufel (informationsfel) som påverkar programvara, dvs. program eller data. • skadliga fel som införs av en människa med det illvilliga målet att orsaka skada på systemet; • icke skadliga fel som införs utan ett illvilligt mål. 6. Vad är det som händer? Avsikten med den eller de människor som orsakade felen: • avsiktliga fel som är resultatet av ett skadligt beslut; • icke-deliberata fel som införs utan medvetenhet. 7. Vad är det som händer? Förmågan hos den eller de människor som införde felen: • oavsiktliga fel som oavsiktligt införs; • inkompetensbrister som beror på bristande yrkeskompetens hos den eller de bemyndigade människorna, eller på otillräcklighet hos utvecklingsorganisationen. 8. Vad är det som händer? Den tidsmässiga varaktigheten av felen: • permanenta fel vars närvaro antas vara kontinuerlig i tiden; • övergående fel vars närvaro är begränsad i tiden. Om alla kombinationer av de åtta grundläggande felklasserna var möjliga skulle det finnas 256 olika kombinerade felklasser. I själva verket är antalet troliga kombinationer 31; de visas i figur 3.3 De kombinerade felen i figurerna 3.3 och 3.4 visas tillhöra tre större delvis överlappande grupperingar: • utvecklingsfel som inkluderar alla felklasser som uppstår under utvecklingen; • fysiska fel som inkluderar alla felklasser som påverkar hårdvaran; • interaktionsfel som inkluderar alla yttre fel. I rutorna längst ner i figur 3.3 anges namnen på några illustrativa felklasser. Definitionen av mänskliga fel (som är ett resultat av skadliga mänskliga handlingar) omfattar avsaknad av åtgärder när handlingar ska utföras, dvs. fel som utelämnats eller helt enkelt utelämnats. Att utföra orätta handlingar leder till fel i provisionen. De två grundläggande klasserna av mänskliga fel kännetecknas av syftet med utvecklaren eller de människor som interagerar med systemet under dess användning: • skadliga fel, som införs under endera systemutveckling med avsikt att orsaka skada på systemet under dess användning (#5-#6), eller direkt under användning (#22-#25) Beroende och dess hot: En Taxonomi • icke-skadliga fel (#1-#4, #7-#21, #26-#31), införs utan skadliga mål. Skadliga mänskliga fel introduceras av en utvecklare med det skadliga målet att ändra systemets funktion under användning. Målet med sådana fel är 1) att störa eller stoppa tjänsten, 2) att få tillgång till konfidentiell information eller 3) att otillbörligt ändra systemet. De är grupperade i två klasser: • potentiellt skadliga komponenter (#5, #6): Trojanska hästar, fällor, logik eller timing bomber, • avsiktligt infört programvara eller hårdvara sårbarheter eller mänskliga fel. Målen för skadliga fel är: 1) att störa eller stoppa tjänsten (vilket framkallar överbelastning), 2) att få tillgång till konfidentiell information, eller 3) att felaktigt ändra systemet. De faller i två klasser: Avsiktliga, icke-skadliga, utvecklingsfel beror i allmänhet på kompromisser, antingen a) som syftar till att bevara godtagbara prestanda, att underlätta systemutnyttjandet, eller b) som orsakas av ekonomiska överväganden. Avsiktliga, icke-skadliga interaktionsfel kan vara ett resultat av en operatörs agerande som antingen syftar till att övervinna en oförutsedd situation eller avsiktligt bryter mot ett verksamhetsförfarande utan att ha insett de eventuella skadliga konsekvenserna av denna åtgärd. Avsiktliga icke-skadliga fel delar egendomen som det ofta erkänns att de var fel först efter ett oacceptabelt systembeteende, alltså ett misslyckande, har uppstått; utvecklaren eller operatören eller operatörerna insåg inte att följden av deras beslut var ett fel. Det anses ofta att både misstag och dåliga beslut är oavsiktliga, så länge de inte görs med skadliga mål. Men det är inte alla misstag och dåliga beslut som begås av personer som inte är illvilliga som är olyckor. Vissa mycket skadliga misstag och mycket dåliga beslut fattas av personer som saknar yrkesmässig kompetens för att utföra det arbete de har utfört. En fullständig feltaxonomi bör inte dölja denna orsak till fel, därför inför vi en ytterligare uppdelning av båda klasserna av icke-skadliga mänskliga fel i (1) oavsiktliga fel, och (2) inkompetens fel. Strukturen för denna mänskliga feltaxonomi visas i figur 3.5.
Avizienis et al.. slutligen, presentera den mest detaljerade och samtidigt utbredd taxonomi av anomalier vi kunde hitta REF.
14,893,317
Dependability and Its Threats: A Taxonomy
{'venue': 'IFIP Congress Topical Sessions', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,873
Abstract-Det växande intresset för blockchain-teknik har återupplivat sökandet efter effektiva Bysantinska konsensus system. I synnerhet har blockchain gemenskapen letat efter sätt att effektivt integrera traditionella Bysantinska feltoleranta (BFT) protokoll i en blockchain konsensus skikt som tillåter olika finansinstitut att säkert komma överens om ordningen för transaktioner. Befintliga BFT-protokoll kan dock bara skala till tiotals noder på grund av deras O(n 2 ) meddelande komplexitet. I detta dokument föreslår vi FastBFT, det snabbaste och mest skalbara BFT-protokollet hittills. I hjärtat av FastBFT är en ny meddelandeaggregation teknik som kombinerar hårdvarubaserade betrodda utförande miljöer (TEEs) med lätta hemliga dela primitiva. Genom att kombinera denna teknik med flera andra optimeringar (t.ex. optimistisk exekvering, trädtopologi och feldetektering) uppnår FastBFT låg latens och hög genomströmning även för storskaliga nätverk. Via systematiska analyser och experiment visar vi att FastBFT har bättre skalbarhet och prestanda än tidigare BFT-protokoll.
Arbetet i Liu REF definierar FastBFT, och som är en snabb och skalbar BFT (byzantinsk feltolerans) protokoll.
135,001
Scalable Byzantine Consensus via Hardware-assisted Secret Sharing
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
14,874
I detta dokument introducerar vi en gemensam modell för syntaktisk och semantisk tolkning av beroende. Den semantiska rollbeteckningen förutsäger de fullständiga syntaktiska vägar som förbinder predikat med deras argument. Denna process är inramad som en linjär uppdrag uppgift, som gör det möjligt att kontrollera vissa väl formbarhet begränsningar. För den syntaktiska delen definierar vi en standard arc-faktord beroendemodell som förutsäger hela syntaktikträdet. Slutligen använder vi oss av dubbla nedbrytningstekniker för att producera konsekventa syntaktiska och predikat-argumentstrukturer samtidigt som vi söker över ett stort utrymme av syntaktiska konfigurationer. I experiment på CoNLL-2009 engelska riktmärket observerar vi mycket konkurrenskraftiga resultat.
REF införde en dubbel nedbrytningsbaserad gemensam modell för gemensam syntaktisk och semantisk tolkning.
7,225,808
Joint Arc-factored Parsing of Syntactic and Semantic Dependencies
{'venue': 'Transactions of the Association for Computational Linguistics', 'journal': 'Transactions of the Association for Computational Linguistics', 'mag_field_of_study': ['Computer Science']}
14,875
På senare tid har det funnits ett växande intresse för att gå med i frågeutvärderingen för scenarier där indata kommer till mycket varierande och oförutsägbara nivåer. I sådana scenarier skiftar fokus från att slutföra beräkningen så snart som möjligt till att producera ett prefix av produktionen så snart som möjligt. För att hantera detta skifte i fokus, de flesta lösningar hittills förlitar sig på någon kombination av strömmande binära operatörer och "on-the-fly" genomförandeplan omorganisation. Däremot överväger vi alternativet att utöka befintliga symmetriska binära gå operatörer för att hantera mer än två ingångar. I detta syfte har vi slutfört en prototypimplementering av en multi-way anslutning operatör, som vi kallar "MJoin" operatör, och utforskat dess prestanda. Våra resultat visar att MJoin i många fall producerar utgångar tidigare än något träd av binära operatörer. Eftersom MJoins dessutom är helt symmetriska med avseende på sina insatser, kan de minska behovet av dyr omorganisation av körtidsplanen. Detta tyder på att stöd för flervägsanslutningar i en enda, symmetrisk, streaming operatör kan vara ett användbart komplement till system som stöder frågor över inmatningsströmmar från avlägsna platser.
MJoin REF, en generaliserad form av XJoin, utökar den symmetriska binära gå operatörer för att hantera flera ingångar, med hjälp av en separat hash tabell för varje ingång.
2,600,697
Maximizing the Output Rate of Multi-Way Join Queries over Streaming Information Sources
{'venue': 'VLDB', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,876
I detta dokument beskrivs grunden för en uppsättning verktyg som låter programmeraren arbeta i form av designmönster och källkod samtidigt. Den introducerar först ett språk för att definiera mönster. Detta språk bryter ner ett mönster i element och begränsningar över en programdatabas av strukturell och semantisk information. Språket stöder både att skapa nya programelement när ett mönster skapas eller ändras och genererar källkod för dessa nya element. I nästa tidning beskrivs verktyg för att arbeta med mönster. Dessa verktyg låter användaren identifiera och skapa instanser av mönster i källkoden. När mönster är så identifierade kan de sparas i ett bibliotek av mönster som åtföljer systemet och mönster kan verifieras, underhållas när källan utvecklas, och redigeras för att ändra källan.
Reiss REF föreslog en specifikationsspråk för att definiera designmönster som bryter ner ett designmönster i element och begränsningar över en databas som lagrar strukturell och semantisk information om ett program.
6,789,653
Working with patterns and code
{'venue': 'Proceedings of the 33rd Annual Hawaii International Conference on System Sciences', 'journal': 'Proceedings of the 33rd Annual Hawaii International Conference on System Sciences', 'mag_field_of_study': ['Computer Science']}
14,877
Under de senaste åren har stokastisk lutning nedstigning (SGD)-baserade tekniker blivit standardverktyg för att träna neurala nätverk. Men formell teoretisk förståelse av varför SGD kan träna neurala nätverk i praktiken saknas till stor del. I detta dokument gör vi framsteg med att förstå detta mysterium genom att tillhandahålla en konvergensanalys för SGD på en rik delmängd av två lager feedforward-nätverk med ReLU-aktiveringar. Denna delmängd kännetecknas av en speciell struktur som kallas "identitetskartläggning". Vi bevisar att, om input följer av Gaussian distribution, med standard O(1/ ε d) initiering av vikterna, SGD konvergerar till det globala minimum i polynom antal steg. Till skillnad från vanliga vaniljnätverk gör "identitetskartläggningen" vårt nätverk asymmetriskt och därmed är det globala minimumet unikt. Som komplement till vår teori kan vi också experimentellt visa att flerlagersnätverk med denna kartläggning har bättre prestanda jämfört med normala vaniljnätverk. Vår konvergensteori skiljer sig från traditionella icke-konvexa optimeringstekniker. Vi visar att SGD konvergerar till optimal i "två faser": I fas I pekar lutningen åt fel håll, men en potentiell funktion g minskar gradvis. Sedan i fas II, SGD går in i en trevlig en punkt konvex region och konvergerar. Vi visar också att identitetskartläggningen är nödvändig för konvergens, eftersom den flyttar utgångspunkten till en bättre plats för optimering. Experimentet verifierar våra påståenden. ArXiv:1705.09886v1 [cs.LG] 28 maj 2017 Expressivitet. Även tvålagers nätverk har stor uttryckskraft. Till exempel, två lager nätverk med sigmoid aktiveringar kunde ungefärlig någon kontinuerlig funktion [19, 6, 3]. ReLU är den senaste aktiveringsfunktionen, och utför mycket bättre än sigmoid [26, 12], men färre och svagare resultat på expressivitet av feedforward ReLU nätverk är kända [25, 28, 27]. Lära sig. De flesta tidigare resultat på lärande neurala nätverk är negativa [35, 24, 34], eller positiva men med särskilda algoritmer andra än SGD [20, 39, 33, 13], eller med starka antaganden på modellen [1, 2]. [31] visade att det med hög sannolikhet finns en ständigt minskande väg från slumpmässig startpunkt till det globala minimum, men SGD kanske inte följer denna väg. Linjärt nätverk och oberoende aktivering. Vissa tidigare verk förenklade modellen genom att ignorera aktiveringsfunktionerna och överväga djupa linjära nätverk [32, 21] eller djupa linjära kvarvarande nät [16], som bara kan lära linjära funktioner. Vissa tidigare resultat bygger på oberoende aktivering antagande att aktiveringarna av ReLU och input är oberoende, vilket är orealistiskt [4, 21]. Saddlepoäng. Det observeras att sadelpunkt är inte ett stort problem för neurala nätverk [8, 15]. I allmänhet skulle SGD, om målet är strikt sadlat [10], kunna undkomma alla sadelpunkter.
Li & Yuan REF gör också framsteg när det gäller att förstå algoritmer genom att tillhandahålla en konvergensanalys för Sgd på särskilda tvålagers feedforward-nätverk med ReLU-aktiveringar, men de anger ändå det 1 st-skiktet som kompenseras av "identitetskartläggning" (mimicking residual connects) och det 2 nd-skiktet som 1-normfunktionen.
8,592,143
Convergence Analysis of Two-layer Neural Networks with ReLU Activation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
14,878
Abstract-This paper studerar data schemaläggning och inträdeskontroll problem för en backscatter sensor nätverk (BSN). I nätverket kan sensorerna istället för att initiera sina egna sändningar skicka sina data till porten bara genom att byta antennimpedans och reflektera de mottagna RF-signalerna. Som sådan kan vi minska på ett anmärkningsvärt sätt komplexiteten, strömförbrukningen och genomförandekostnaden för sensornoder. Olika sensorer kan ha olika funktioner, och data som samlas in från varje sensor kan också ha en annan status, t.ex. brådskande eller normal, och därför måste vi ta hänsyn till dessa faktorer. Därför inför vi i detta dokument först en systemmodell tillsammans med en mekanism för att ta itu med problemet med datainsamling och schemaläggning i BSN. Därefter föreslår vi en optimeringslösning med hjälp av Markovs beslutsprocessram och en förstärkande inlärningsalgoritm baserad på linjär funktions approximationsmetod, i syfte att hitta den optimala datainsamlingspolicyn för gateway. Genom simuleringsresultat visar vi inte bara effektiviteten i den föreslagna lösningen jämfört med andra baslinjepolicyer, utan presenterar även analysen av policyn för dataaccesskontroll under olika klasser av sensorer samt olika typer av data.
Författarna i REF tog upp problemet med dataplanering och åtkomstkontroll för en gateway i ett backscatter sensornätverk.
23,833,126
Optimal Data Scheduling and Admission Control for Backscatter Sensor Networks
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science']}
14,879
Modelldriven utveckling är ett ramverk för programvaruutveckling som betonar modellbaserad abstraktion och automatiserad kodgenerering. Servicebaserade programvaruarkitekturer drar särskilt nytta av semantisk, ontologibaserad modellering. Vi presenterar ontologibaserad transformations- och resonemangsteknik för skiktad semantisk tjänstearkitekturmodellering. Integrerade ontologiska skikt stöder abstrakta domänmodellering, arkitektonisk design och driftskompatibilitetsaspekter. Ontologier är bra på grund av deras potential att formellt definiera modeller, att tillåta resonemang om semantiska modeller, och att automatisera omvandlingar på alla lager. Ontologier är särskilt lämpliga för Web Services-plattformen på grund av deras närvaro inom den semantiska webben och deras tillämpning för att stödja semantiska webbtjänster.
Modelldriven utveckling REF är ett ramverk för programvaruutveckling som betonar modellbaserad abstraktion och automatiserad kodgenerering.
17,989,471
Semantic model-driven architecting of service-based software systems
{'venue': 'Inf. Softw. Technol.', 'journal': 'Inf. Softw. Technol.', 'mag_field_of_study': ['Computer Science']}
14,880
Lösningen av stora, glesa linjära system är ofta en dominerande fas av beräkning för simuleringar baserade på partiella differentialekvationer, som är allmänt förekommande i vetenskapliga och tekniska tillämpningar. Medan preparerade Krylov metoder används allmänt och erbjuder många fördelar för att lösa glesa linjära system som inte har mycket konvergerande, geometriska multigrid lösare eller specialiserade snabba lösare, Krylov metoder möter välkända skalningssvårigheter för över 10.000 processorkärnor eftersom varje iteration kräver minst en vektor inre produkt, vilket i sin tur kräver en global synkronisering som fjällar dåligt på grund av internode latens. För att hjälpa till att övervinna dessa svårigheter har vi utvecklat hierarkiska Krylov-metoder och inbäddade Krylov-metoder i PETSc-biblioteket som minskar antalet globala inre produkter som krävs över hela systemet (där de är dyra), men fritt tillåter vektorinterna produkter över mindre undergrupper av hela systemet (där de är billiga) eller använder inre iterationer som inte alls åberopar vektorinterna produkter. Nested Krylov metoder är en generalisering av inre-yttre iterativa metoder med två eller flera lager. Hierarkiska Krylov metoder är en generalisering av block Jacobi och överlappande additiv Schwarz metoder, där varje block själv löses med Krylov metoder på mindre block. Uppfattningsvis kan hierarkin fortsätta rekursivt till ett godtyckligt antal nivåer av mindre och mindre block. Som ett specifikt fall introducerar vi den hierarkiska FGMRES-metoden, eller h-FGMRES, och vi demonstrerar effekten av två-nivå h-FGMRES med en variabel förkonditionerare på PFLOTRAN subsurface flow application. Vi visar också effekten av häckade FGMRES, BiCGStab och Chebysjev metoder. Dessa hierarkiska Krylov-metoder och inhägnade Krylov-metoder minskade signifikant den totala PFLOTRAN-simuleringstiden på Cray XK6 vid användning av 10000 till 224.000 kärnor genom de kombinerade effekterna av minskad global synkronisering på grund av färre globala inre produkter och starkare inre hierarkiska eller inhägnade förkonditionärer.
Dessutom föreslogs nyligen hierarkiska och bosatta Krylov-metoder som begränsar globala minskningar i mindre undergrupper av processorer där de är billigare REF.
1,808,311
Hierarchical Krylov and nested Krylov methods for extreme-scale computing
{'venue': 'Parallel Comput.', 'journal': 'Parallel Comput.', 'mag_field_of_study': ['Computer Science']}
14,881
Abstract-Det problem som behandlas här innebär användning av en sekvens av bullriga monokulära bilder av ett tredimensionellt (3-D) rörliga objekt för att uppskatta både dess struktur och kinematics. Föremålet antas vara stelbent, och dess rörelse antas vara "smooth". En uppsättning objektmatchningspunkter antas vara tillgängliga, bestående av fasta funktioner på objektet, vars bildplanskoordinater har extraherats från på varandra följande bilder i sekvensen. Struktur definieras som 3-D-positionerna för dessa objektfunktionspunkter, i förhållande till varandra. Rotationell rörelse uppstår om ursprunget till ett objekt-centrerade koordinatsystem, medan translationell rörelse är ursprunget till detta koordinatsystem. I tidigare arbete [SI- [8] har vi utvecklat en modellbaserad metod för rörelse-/strukturuppskattning med hjälp av en lång sekvens av monokulära bilder. Detta tillvägagångssätt ger en hel del flexibilitet, genom att tillåta användning av godtyckligt många bildramar och funktionspunkter, och varje modell kan lätt ändras eller utvidgas för olika problem. Vårt tidigare arbete handlade om antaganden om objektets struktur och/eller rörelse, testades främst på simulerade bilder och tog inte upp frågan om modellens unika parametrar. I detta dokument, som är en fortsättning på den forskning som inletts i [q, resultat av ett experiment med verkliga bilder presenteras, inklusive uppskattning av 28 okända translationella, rotationella och strukturella parametrar, baserat på 12 bilder med 7 funktionspunkter. Unika resultat sammanfattas för fallet med rent translationell rörelse. En provning baserad på en singular värde sönderdelning beskrivs som avgör om bullerfria data från en bildsekvens på ett unikt sätt bestämmer elementen i en given parametervektor, och empiriskt stöd ges för denna provning. Index Terms-Image sekvensanalys, rörelseanalys, 3D rörelseuppskattning, unikhet. T en tidsföljd av 2-D-prognoser (bilder) har varit fokus för en betydande mängd forskning under det senaste årtiondet. Detta problem uppstår i en mängd olika situationer, som sträcker sig från att uppskatta stela objekt struktur och rörelse (t.ex., [lo], [22], [32] ), till självrörelse uppskattning och navigering (t.ex., [9], [27]), till att spåra vissa 3D-parametrar av "punkt" objekt (t.ex., [28]), och till många andra. I samtliga fall finns det antingen en implicit eller explicit användning av olika modeller för struktur, rörelse och bild, vars parametrar ska uppskattas, oavsett om de är translationella eller rotationssteg, hastigheter, funktionspositioner, etc. De flesta av fördelarna med modellbaserade metoder som diskuteras i [9] (för rekursiv uppskattning av självrörelse) gäller modellbaserade batch- och hybrida batch/rekursiva skattningsförfaranden. Det finns flera aspekter av denna modellering som är av särskild betydelse för att skilja mellan olika forskningsinsatser: antalet och typen av okända parametrar, mängden och typen av data som ska användas, och modellens lämplighet för dess avsedda ändamål. Antalet okända parametrar (antalet "frihetsgrader") är direkt relaterat till krav på uppskattning av prestanda och data. Om många parametrar är okända, vilket är fallet med den forskning som presenteras i detta dokument, kan uppskattningsprocessen vara känslig och svår, och batch metoder kan krävas för att extrahera så mycket information som möjligt från data. Om färre parametrar är inblandade, t.ex. i [13] och (271, är uppskattningsprocessen mer robust, vilket framgår av den framgångsrika användningen av rekursiva realtidstekniker i dessa tre fall. På samma sätt gör tilläggsinformationen i stereobilder det möjligt att använda enklare modeller och lösningar som i [17]; en robust linjär lösning för monokulära visioner har visat sig vara mer svårfångad. Till exempel används en ungefärlig linjär metod för monokulära visioner som diskuteras i [34] för att generera initiala gissningar för en icke-linjär minsta kvadrat objektiv funktion som liknar vår, med avsikten att minska antalet okända parametrar i den iterativa optimeringen. Denna metod testas dock endast på mycket stora objekt för simulerade bilder och fasta scener (självrörelse) för verkliga bilder (båda har mycket låga ljudnivåer som kvantifieras av den åtgärd som diskuteras nedan), och verkar vara begränsad till rörelse med liten rotation. Eftersom problemet är nonlinear (central projektion avbildning och rotationsrörelse), de särskilda värdena för de okända parametrarna är också viktiga. Ren translationell rörelse och objekt (eller scen) struktur är lättare att uppskatta än rotationsrörelse, och förekomsten av betydande rotationsrörelse kan leda till uppskattningsproblem, särskilt när det gäller konvergens, på grund av kvalitativa förändringar i den objektiva funktionen (skapande av flera lokala minima). Dessutom är självrörelseuppskattning mer robust än objektrörelseuppskattning, i den mån självrörelseuppskattning innebär en mycket stor "objekt" (en fast scen). Användningen av långa sekvenser (mer än fyra eller fem bilder) ger en betydande förbättring i uppnåelig uppskattning noggrannhet, och noggrannheten förbättras när objektbilden blir större. Eftersom dessa teoretiska lägre gränser på varianser av uppskattning [8] är oberoende av någon särskild 0162-8828/91/060CL0497$01.00 0 1991 IEEE
Ett av de första viktiga resultaten på rekursiv struktur och rörelseuppskattning var arbetet med REF.
5,048,288
Estimating the kinematics and structure of a rigid object from a sequence of monocular images
{'venue': 'IEEE Trans. Pattern Anal. Mach. Intell.', 'journal': 'IEEE Trans. Pattern Anal. Mach. Intell.', 'mag_field_of_study': ['Computer Science']}
14,882
Generera kontradiktoriska exempel är ett viktigt steg för att utvärdera och förbättra robustheten i inlärningsmaskiner. Hittills fungerar de flesta befintliga metoder bara för klassificering och är inte utformade för att ändra det verkliga prestandamåttet på det aktuella problemet. Vi introducerar ett nytt flexibelt tillvägagångssätt som heter Houdini för att ta fram kontradiktoriska exempel som är särskilt anpassade för det slutliga prestationsmåttet för den aktuella uppgiften, oavsett om den är kombinatorisk eller inte. Vi tillämpar Houdini framgångsrikt på en rad tillämpningar såsom taligenkänning, posering och semantisk segmentering. I samtliga fall uppnår attackerna baserade på Houdini högre framgångsgrad än de som baseras på de traditionella surrogat som används för att träna modellerna samtidigt som man använder en mindre märkbar adversariell perturbation.
Houdini by Cisse REF är ett tillvägagångssätt för att ta fram kontradiktoriska exempel som är särskilt anpassade för uppgiftsförluster, och det kan tillämpas på en rad tillämpningar.
13,123,082
Houdini: Fooling Deep Structured Prediction Models
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
14,883
Vi presenterar en analys av ett personligt rekommendationsnätverk, bestående av 4 miljoner människor som gav 16 miljoner rekommendationer om en halv miljon produkter. Vi observerar spridningen av rekommendationer och kaskadstorlekar, som vi förklarar med en enkel stokastisk modell. Vi analyserar hur användarbeteendet varierar inom användargrupper som definieras av ett rekommendationsnätverk. Produktköp följer en "lång svans" där en betydande andel av köpen hör till sällan sålda föremål. Vi fastställer hur rekommendationsnätverket växer över tid och hur effektivt det är ur rekommendationernas avsändares och mottagares synvinkel. Även om rekommendationer i genomsnitt inte är särskilt effektiva för att framkalla inköp och inte sprids särskilt långt, presenterar vi en modell som framgångsrikt identifierar samhällen, produkter och priskategorier för vilka viral marknadsföring verkar vara mycket effektiv.
Att vara en utvidgning av informationsspridning i en stor grupp människor, Leskovec, Admic, och Huberman REF presentera en analys av en person-till-person rekommendation nätverk, bestående av 4 miljoner människor som gjorde 16 miljoner rekommendationer på en halv miljon produkter för att fastställa hur rekommendationsnätverket växer över tid och hur effektivt det är från avsändare och mottagare av rekommendationerna.
204,933,234
The Dynamics of Viral Marketing
{'venue': 'Leskovec, J., Adamic, L. A., and Huberman, B. A. 2007. The dynamics of viral marketing. ACM Transactions on the Web, 1, 1 (May 2007)', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']}
14,884
Bulletproof hosting autonoma system (ASes) illvilliga AS som är helt dedikerade till att stödja it-brottslighet-ge frihet och resurser för en it-brottsling att fungera. Deras tjänster omfattar ett brett utbud av olagligt innehåll, botnet C & C-servrar och andra skadliga resurser. Tusentals nya AS registreras varje år, varav många ofta uteslutande används för att underlätta it-brottslighet. En naturlig metod för att klämma skottsäker hosting AS är att utveckla ett ryktessystem som kan identifiera dem för övertagande av brottsbekämpande myndigheter och som indata till andra attackdetekteringssystem (t.ex. spamfilter, botnet detektionssystem). Tyvärr, nuvarande AS rykte system förlitar sig främst på data-plan övervakning av skadlig aktivitet från IP-adresser (och därmed bara kan upptäcka skadliga ASes efter attacker pågår), och inte kan skilja mellan skadliga och legitima men missbrukas ASes. Som ett komplement till dessa system utforskar vi i detta dokument ett helt annat sätt att skapa AS-rykte. Vi presenterar ASwatch, ett system som identifierar skadliga AS som använder uteslutande kontrollplan (dvs. routing) beteende ASes. ASwatch design är baserad på intuitionen att, i ett försök att undvika eventuell upptäckt och sanering ansträngningar, skadliga ASes uppvisar "agile" kontrollplan beteende (t.ex., kortlivade rutter, aggressiv omkoppling). Vi utvärderar vårt system på kända skadliga ASes; våra resultat visar att ASwatch upptäcker upp till 93% av skadliga ASes med en 5% falsk positiv hastighet, vilket är rimligt att effektivt komplettera befintliga försvarssystem.
Andra ortogonala men intressanta arbete inom detta område har utformat AS ryktessystem som använder kontrollplan information för att fånga kortlivade rutter som ofta används av skadliga ASes REF.
828,130
ASwatch: An AS Reputation System to Expose Bulletproof Hosting ASes
{'venue': "SIGCOMM '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,885
Algoritmer för beräkning av spelteoretiska lösningar har nyligen tillämpats på ett antal säkerhetsdomäner. Men många av de tekniker som utvecklats för kompakta representationer av säkerhetsspel inte sträcker sig till Bayesian säkerhet spel, som gör att vi kan modellera osäkerhet om angriparens typ. I det här dokumentet introducerar vi en allmän ram av catcher-evader spel som kan fånga Bayesianska säkerhetsspel samt andra spelfamiljer av intresse. Vi visar att datorer Stackelberg strategier är NP-hård, men ge en algoritm för att beräkna en Nash jämvikt som fungerar bra i experiment. Vi bevisar också att Nash equilibria av dessa spel uppfyller utbytbarhet egenskap, så att jämvikt val är inte ett problem.
REF studerade Bayesian Stackelberg Games, där det finns ytterligare osäkerhet om angriparen och visar att beräkning av Stackelberg jämvikt är svårt, och införa en exponentiell tid algoritm för att beräkna Nash equilibria.
8,890,449
Catcher-Evader Games
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
14,886
Bakgrund: Genommontering är svårt på grund av upprepade sekvenser i genomet, som skapar tvetydigheter och gör att den slutliga sammansättningen delas upp i många separata sekvenser (kontiger). Lång räckvidd länkning information, såsom par-par eller kartdata, är nödvändigt för att hjälpa montering programvara lösa upprepningar, vilket leder till en mer fullständig rekonstruktion av genom. Tidigare arbeten har använt optiska kartor för att validera monterings- och byggnadsställningar efter det att en första montering har gjorts. Dock har optiska kartor inte tidigare använts i genom monteringsprocessen. Här använder vi optisk kartinformation inom den populära de Bruijn graf montering paradigm för att eliminera stigar i de Bruijn grafen som inte överensstämmer med den optiska kartan och hjälper till att avgöra den korrekta rekonstruktionen av genomet. Resultat: Vi utvecklade en ny algoritm som heter AGORA: Assembly Guided by Optical Restriktion Alignment. AGORA är den första algoritmen att använda optisk kartinformation direkt inom ramen för de Bruijn grafen för att hjälpa till att producera en exakt sammansättning av ett genom som överensstämmer med den optiska kartinformationen. Våra simuleringar på bakteriella genom visar att AGORA är effektiv på att producera sammansättningar som nära motsvarar referenssekvenserna. Dessutom visar vi att buller i den optiska kartan kan ha en stark inverkan på den slutliga monteringen kvalitet för vissa komplexa genom, och vi mäter också hur olika egenskaper i start de Bruijn grafen kan påverka kvaliteten på den slutliga monteringen. Slutligen visar vi att ett lämpligt val av begränsningsenzym för den optiska kartan avsevärt kan förbättra kvaliteten på den slutliga sammansättningen. Slutsatser: Vårt arbete visar att optiska kartor kan användas effektivt för att montera genom inom de Bruijn graf montering ram. Våra experiment ger också insikter i egenskaperna hos kartdata som mest påverkar prestandan hos vår algoritm, vilket indikerar den potentiella nyttan av mer exakta optiska karteringstekniker, såsom nano-kodning.
AGORA REF är en av de få metoder som integrerar optisk kartdata med genommontering.
8,617,357
AGORA: Assembly Guided by Optical Restriction Alignment
{'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Biology', 'Computer Science', 'Medicine']}
14,887
Att uppskatta mänsklig pose, form och rörelse från bilder och videor är grundläggande utmaningar med många tillämpningar. Nya framsteg i 2D human pose estimering använder stora mängder manuellt märkta träningsdata för att lära konvolutionella neurala nätverk (CNN). Sådana uppgifter är tidskrävande att förvärva och svåra att utöka. Dessutom är manuell märkning av 3D pose, djup och rörelse opraktiskt. I detta arbete presenterar vi SURREAL (Synthetic hUmans foR REAL uppgifter): en ny storskalig datauppsättning med syntetiskt genererade men realistiska bilder av människor som återges från 3D sekvenser av mänskliga rörelse fånga data. Vi genererar mer än 6 miljoner ramar tillsammans med marksanning pose, djupkartor och segmenteringsmasker. Vi visar att CNN:er som är utbildade på vår syntetiska datauppsättning möjliggör noggrann bedömning av människans djup och segmentering av mänskliga delar i verkliga RGB-bilder. Våra resultat och det nya datasetet öppnar upp nya möjligheter för utveckling av personanalys med hjälp av billiga och storskaliga syntetiska data.
På senare tid har arbetet inom Ref föreslagit en metod för bedömning av mänskliga delar och djup som är utbildad på syntetiska data.
12,289,484
Learning from Synthetic Humans
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
14,888
Ett antal färska studier har fokuserat på de statistiska egenskaperna hos nätverkade system som sociala nätverk och World-Wide Web. Forskarna har särskilt koncentrerat sig på ett fåtal egenskaper som verkar vara gemensamma för många nätverk: den småskaliga egendomen, den makträttsliga examensdistributionen och nättransitiviteten. I detta dokument belyser vi en annan egenskap som finns i många nätverk, egenskapen gemenskap struktur, där nätverk noder förenas i tätt sammansvetsade grupper som det bara finns lösare anslutningar mellan. Vi föreslår en ny metod för att upptäcka sådana samhällen, byggd kring idén att använda centralitetsindex för att hitta samhällsgränser. Vi testar vår metod på datorgenererade och verkliga grafer vars samhällsstruktur redan är känd, och finner att den upptäcker denna kända struktur med hög känslighet och tillförlitlighet. Vi tillämpar också metoden på två nätverk vars samhällsstruktur inte är välkänd-ett samarbetsnätverk och en mat webb-och finner att det upptäcker betydande och informativa gemenskap uppdelningar i båda fallen.
I Ref föreslogs en metod för att upptäcka samhällsstrukturer i sociala och biologiska nätverk med hjälp av centralitetsindex för att hitta gemenskapsgränserna.
2,444,655
Community structure in social and biological networks
{'venue': 'Proc. Natl. Acad. Sci. USA 99, 7821-7826 (2002)', 'journal': None, 'mag_field_of_study': ['Physics', 'Computer Science', 'Medicine']}
14,889
Application resilience är en viktig utmaning som måste hanteras för att förverkliga exaskala visionen. Återhämtning online, även när det gäller alla processer, kan dramatiskt minska omkostnaderna för misslyckanden jämfört med den mer traditionella metoden där jobbet avslutas och startas om från den sista kontrollpunkten. I detta dokument undersöker vi hur lokal återhämtning kan användas för vissa klasser av applikationer för att ytterligare minska overheads på grund av motståndskraft. Speciellt utvecklar vi programmeringsstöd och skalbara körtidsmekanismer för att möjliggöra online och transparent lokal återhämtning för schablonbaserade parallella applikationer på nuvarande ledarskapsklasssystem. Vi visar också hur flera oberoende misslyckanden kan maskeras för att effektivt minska påverkan på den totala tiden till lösning. Vi integrerar dessa mekanismer med S3D förbränningssimuleringen, och experimentellt demonstrerar (med hjälp av Titan Cray-XK7 systemet på ORNL) förmågan att tolerera höga felfrekvenser (dvs nodfel var femte sekund) med låga omkostnader samtidigt som prestandan upprätthålls, på skalor upp till 262144 kärnor.
I det efterföljande arbetet utforskade REF praxis för att möjliggöra lokal återhämtning online och genomblickbar för schablonbaserade parallella tillämpningar som drivs i extremt stor skala.
18,686,914
Local recovery and failure masking for stencil-based applications at extreme scales
{'venue': 'SC15: International Conference for High Performance Computing, Networking, Storage and Analysis', 'journal': 'SC15: International Conference for High Performance Computing, Networking, Storage and Analysis', 'mag_field_of_study': ['Computer Science']}
14,890
Abstract-This paper studerar problemet med automatisk de tection av falska rykten på Sina Weibo, den populära kinesiska mi croblogging sociala nätverk. Tr aditionella funktionsbaserade metoder extrahera funktioner från falska ryktesmeddelandet, dess författare, samt statistiken över dess svar för att bilda en platt funktion vektor. Detta bortser från budskapens spridningsstruktur och har inte lett till särskilt goda resultat. Vi föreslår en graf-kärnbaserad hybrid SVM klassificering som fångar den höga ordningen spridningsmönster förutom semantiska funktioner som ämnen och känslor. Den nya modellen uppnår en klassificeringsnoggrannhet på 91,3 % på slumpmässigt utvalda Weibo-datauppsättningar, betydligt högre än de senaste metoderna. Dessutom kan vår strategi tillämpas på ett tidigt stadium av ryktesspridning och är 88% säker på att upptäcka ett genomsnittligt falskt rykte bara 24 timmar efter den första sändningen. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
Nyligen använder REF unika funktioner i Sina Weibo för att studera spridningsmönster och uppnå goda resultat.
13,483,079
False rumors detection on Sina Weibo by propagation structures
{'venue': '2015 IEEE 31st International Conference on Data Engineering', 'journal': '2015 IEEE 31st International Conference on Data Engineering', 'mag_field_of_study': ['Computer Science']}
14,891
Abstract-Embended påståenden har erkänts som ett potentiellt kraftfullt verktyg för automatisk körtid upptäckt av programvarufel under felsökning, testning, underhåll och även produktionsversioner av programvarusystem. Trots den stora rikedomen i noterna och mognaden hos de tekniker och verktyg som har utvecklats för programmering med påståenden, är påståenden ett utvecklingsverktyg som har sett föga utbredd användning i praktiken. De främsta anledningarna verkar vara att (1) tidigare påstående bearbetning verktyg inte enkelt integreras med befintliga programmeringsmiljöer, och (2) det är inte väl förstått vilka typer av påståenden är mest effektiva för att upptäcka programfel. I detta dokument beskrivs erfarenheterna med hjälp av ett verktyg för att behandla påståenden som har byggts upp för att ta itu med problemen med användarvänlighet och effektivitet. Verktyget kallas APP, en Notation Precessor för C-program som utvecklats i UNIX-baserade utvecklingsmiljöer. APP har använts i utvecklingen av en mängd olika mjukvarusystem under de senaste fem åren. På grundval av denna erfarenhet presenterar tidningen en klassificering av de påståenden som var mest effektiva när det gällde att upptäcka fel. Medan de påståenden som beskrivs vakta mot många vanliga typer av fel och fel, mycket allmängiltigheten av sådana fel visar behovet av en explicit, hög nivå, automatiskt kontrollerbar specifikation av erforderligt beteende. Man hoppas att den klassificering som presenteras i detta dokument kommer att visa sig vara ett användbart första steg i utvecklingen av en metod för programmering med påståenden.
Användningen av runtime påståenden i mjukvaruutveckling är inte ny. REF presenterar en anteckningsförbehandlare för C, namngiven APP, och diskuterar en klassificering av påståenden.
17,372,400
A practical approach to programming with assertions
{'venue': 'IEEE Transactions on Software Engineering', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,892
Färskhet i resultat är viktigt i modern webbsökning. Att inte känna igen den tidsmässiga aspekten av en fråga kan påverka användarupplevelsen negativt, och få sökmotorn att framstå som gammal. Även om färskhet och relevans kan vara nära relaterade till vissa ämnen (t.ex. nyhetsfrågor), de är mer oberoende i andra (t.ex. tid okänsliga frågor). Att optimera ett kriterium förbättrar därför inte nödvändigtvis det andra och kan till och med skada i vissa fall. Vi föreslår ett ramverk för maskininlärning för att samtidigt optimera färskhet och relevans, där kompromissen automatiskt anpassas för att ifrågasätta tidsmässiga egenskaper. Vi börjar med att illustrera olika tidsmässiga egenskaper hos frågor, och de funktioner som kan användas för att fånga dessa egenskaper. Vi introducerar sedan vårt övervakade ramverk som utnyttjar tidsprofilen av frågor (t.ex. från pseudo-feedback-dokument) tillsammans med de andra rankingfunktionerna för att förbättra både färskhet och relevans av sökresultat. Våra experiment på en stor arkival webb corpus visar effektiviteten av våra tekniker.
I REF, Dai et al. använda tidsbundna egenskaper av frågor för att förbättra ranking webbresultat med hjälp av maskininlärda modeller.
5,738,189
Learning to rank for freshness and relevance
{'venue': "SIGIR '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,893
Abstrakt. Med tanke på en uppsättning vektorer (data) i ett Hilbert utrymme H, visar vi att det finns en optimal samling av subrymder som minimerar summan av kvadraten av avstånden mellan varje vektor och dess närmaste subrymd i samlingen. Denna samling av subrymder ger den bästa glesa representationen för de givna data, i en mening som definieras i papperet, och ger en optimal modell för provtagning i union av subrymder. Resultaten visas i en allmän miljö och sedan tillämpas på fallet med låga dimensionella subrymder av R N och på oändliga dimensionella skift-invarianta utrymmen i L 2 (R d ). Vi presenterar också en iterativ sökalgoritm för att hitta lösningen subrymder. Dessa resultat är nära kopplade till de nya framväxande teorierna om komprimerad avkänning och ordboksdesign, signalmodeller för signaler med ändlig innovationshastighet och subrymdssegmenteringsproblemet.
Förekomsten av optimal förening av subrymdsmodeller och en algoritm för att hitta dem erhölls i REF.
4,953,294
Optimal Non-Linear Models for Sparsity and Sampling
{'venue': None, 'journal': 'arXiv: Classical Analysis and ODEs', 'mag_field_of_study': ['Mathematics']}
14,894
emote-sensing tekniker har förändrat ekologisk forskning genom att ge både rumsliga och tidsmässiga perspektiv på ekologiska fenomen som annars skulle vara svårt att studera (t.ex. Kerr och Ostrovsky 2003; Running et al. 2004; Vierling m.fl. 2008)............................................................... I synnerhet har man lagt stor vikt vid användningen av data från rymdburna fjärranalysinstrument, eftersom dessa ger regionala till globala observationer och återkommande tidsserier för provtagning av ekologiska indikatorer (t.ex. Gould 2000). Den huvudsakliga begränsningen av de flesta forskningsfokuserade satellituppdrag är missmatchningen mellan pixelupplösningen hos många regional-extent sensorer (t.ex. Landsat [spatial upplösning på ~30 m] till den moderata upplösningen Imaging Spectroradiometer [spatial upplösning på ~1 km], återbesöksperioden (t.ex. 18 dagar för Landsat), och omfattningen av många ekologiska processer. Data från dessa plattformar är ofta "för allmänna för att uppfylla regionala eller lokala mål" inom ekologi (Wulder et al. 2004).................................................................. För att ta itu med denna begränsning har en rad nya (till stor del kommersiellt drivna) satellitsensorer tagits i drift under det senaste årtiondet och erbjuder data med en finare rumslig upplösning än 10 meter med mer responsiv kapacitet (t.ex. Quickbird, IKONOS, GeoEye-1, OrbView-3, WorldView-2). Sådana data är användbara för ekologiska studier (Fretwell et al. 2012), men det finns fortfarande tre operativa begränsningar: (1) en hög kostnad per scen; (2) lämpliga upprepningstider är ofta endast möjligt om sneda siktvinklar används, snedvrider geometriska och radiometriska pixelegenskaper; och (3) moln förorening, som kan skymma funktioner av intresse (Loarie et al. 2007)................................................................................................... Imaging sensorer ombord på civila flygplansplattformar kan också användas. Dessa kan ge mer skalbara data för finskaliga ekologiska studier, inklusive data från ljusdetektering och varierande (LiDAR) sensorer (Vierling et al. 2008)............................................................... I teorin kan dessa undersökningar göras på begäran, men i praktiken är datainsamling kostsam, vilket innebär att regelbunden tidsserieövervakning begränsas operativt. En ny metod för finskalig fjärranalys håller nu på att utvecklas som skulle kunna ta itu med alla dessa operativa frågor och därmed potentiellt revolutionera den rumsliga ekologin och miljövetenskapen. Obemannade luftfartyg (UAV) är lätta och billiga luftfartygsplattformar som drivs från marken och som kan bära nyttolaster som inte är avbildade eller avbildade. UAV erbjuder ekologer en lovande väg till lyhörd, snabb och kostnadseffektiv övervakning av miljöfenomen vid rumsliga och tidsmässiga resolutioner som är lämpliga för skalor av många ekologiskt relevanta variabler. Eerging från en militär bakgrund, det finns nu ett växande antal civila organ och organisationer som har erkänt de möjliga tillämpningar av UAVs, inklusive National Oceanic och Atmosfäric Administration, som säger att UAVs "har potential att effektivt och säkert överbrygga kritiska informationsluckor" i data-sparse platser "och för vidare förståelse av nyckelprocesser i Earth sys- I ett nötskal: REVIEWS REVEIEWS Lättvikt obemannade flygfordon kommer att revolutionera rumslig ekologi • Ekologer kräver data som samlats in på lämpliga rumsliga och tidsmässiga resolutioner för en rad studier • Obemannade flygfordon (UAV) kan bära olika avbildning eller icke-imaging payloads för att tillhandahålla rumsliga dataset för en mängd olika slutanvändare • Fördelarna med UAVs är att (1) undersökning återbesöksperioder (dvs antalet upprepade flygningar över en utsedd plats) kan vara användarstyrda, (2) låg-altituerade flyg gör det möjligt för sensorer att observera marken från mer proximala positioner och potentiellt samla finare rumsliga upplösningsdata, och (3) driftkostnader är låga • Vi granskar aktuella strategier för UAV:s införande, sammanfatta deras potentiella och nya tillämpningar som kan användas för att stödja miljöforskning.
Inom detta forskningsområde belyser Anderson och Gaston REF tillämpligheten av UAV:er inom ekologiområdet och betonar att de rumsliga och tidsmässiga upplösningarna av de data som erhålls genom traditionella metoder ofta inte anpassar sig väl till den lokala ekologiska forskningens krav.
1,645,444
Lightweight unmanned aerial vehicles will revolutionize spatial ecology
{'venue': None, 'journal': 'Frontiers in Ecology and the Environment', 'mag_field_of_study': ['Biology']}
14,895
Abstract-Varje robot gripare kräver en jämviktsanpassad lösning mot grepp anpassningsförmåga, precision och bärförmåga. En mångsidig mjuk robotgripare kräver justerbart greppläge för objekt med olika storlekar och former, och justerbar överensstämmelse för byte mellan mjukt läge för små laster och ömtåliga föremål och styvt läge för större laster och tyngre föremål. I detta papper presenterar vi utformningen av en sendriven robot origami, robogami, gripare som ger självanpassningsförmåga och inneboende mjukhet genom dess redundanta och underverkande grad av frihet (DoF). Robogami är en plan och vikbar robotplattform som är skalbar och anpassningsbar tack vare sin unika tillverkningsprocess lager för lager. Den nominella tvådimensionella tillverkningsprocessen gör det möjligt att inbädda olika funktionella lager med hög trohet. I synnerhet möjliggör ett polymerskikt med justerbar styvhet den oberoende kontrollen av styvheten för varje led. Med hjälp av denna funktion, kan vi styra energitillförseln mellan olika leder och därmed rörelsen av robogami. Här modellerar vi beteendet hos ett enda finger, och demonstrerar efterlevnadskontroll av sluteffekten längs olika riktningar i simuleringar och experiment. Vi validerar också gripmannens mångsidighet i mjuka och stela lägen genom att tilldela modellbaserade leder styvhet för att utföra olika grepplägen.
Firouzeh m.fl. Använda justerbara styvhet leder för att kontrollera överensstämmelsen med en griper REF.
5,752,400
Grasp Mode and Compliance Control of an Underactuated Origami Gripper Using Adjustable Stiffness Joints
{'venue': 'IEEE/ASME Transactions on Mechatronics', 'journal': 'IEEE/ASME Transactions on Mechatronics', 'mag_field_of_study': ['Engineering']}
14,896
Abstract-Paketet par mekanism har visat sig vara en tillförlitlig metod för att mäta flaskhals länkkapacitet på en nätverksbana, men dess användning för att mäta tillgänglig bandbredd är mer utmanande. I det här dokumentet använder vi modellering, mätningar och simuleringar för att bättre karakterisera samspelet mellan provpaket och den konkurrerande nätverkstrafiken. Först konstruerar vi en enkel modell för att förstå hur konkurrerande trafik förändrar gapet mellan paketen för ett enda nätverk. gapmodellen visar att den initiala undersökningsklyftan är en kritisk parameter när man använder paketpar för att uppskatta tillgänglig bandbredd. Baserat på denna insikt presenterar vi två tillgängliga bandbreddsmätningsmetoder, den initiala gapökningsmetoden (IGI) och metoden för paketöverföringshastighet (PTR). Vi använder omfattande internetmätningar för att visa att dessa tekniker uppskattar tillgänglig bandbredd snabbare än befintliga tekniker som Pathload, med jämförbar noggrannhet. Slutligen, med hjälp av både Internet-mätningar och ns-simuleringar, undersöker vi hur mätnoggrannheten hos aktiv undersökning påverkas av faktorer som undersökning av paketstorlek, längden på undersökning av pakettåg och den konkurrerande trafiken på andra länkar än den täta länken. Index Terms-Active undersökning, tillgänglig bandbredd, Internet, nätverksmätning.
IGI/PTR REF modellerar Internetbanan som ett enda hopp och använder pakettåget för att förutsäga den tillgängliga bandbredden för flaskhalslänkar.
16,980,447
Evaluation and Characterization of Available Bandwidth Probing Techniques
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,897
I detta dokument föreslås en ny teknik för att öka noggrannheten hos direkt geo-refererade bildbaserade 3D-punktmoln som genereras från lågkostnadssensorer i smartphones. smartphones rörelsesensorer används för att direkt förvärva Exterior Orientation Parameters (EOPs) av de fångade bilderna. Dessa EOPs, tillsammans med Interior Orientation Parameters (IOPs) av kameran/telefonen, används för att rekonstruera den bild-baserade 3D-punktmoln. Men eftersom smartphone rörelsesensorer lider av dålig GPS-noggrannhet, ackumulerad drift och hög signalbuller, resulterar felaktiga 3D-kartläggningslösningar ofta. Därför extraheras horisontella och vertikala linjära egenskaper, synliga i varje bild, och används som begränsningar i kombinationsjusteringsförfarandet. Dessa begränsningar korrigerar den relativa positionen och orienteringen för 3D-karteringslösningen. När de förbättrade EOP:erna har uppskattats används den semiglobala matchande algoritmen (SGM) för att generera det bildbaserade täta 3D-punktmolnet. Statistisk analys och bedömning genomförs häri, för att visa genomförbarheten av 3D-punkt molngenerering från konsumentklass sensorer i smartphones.
Alsubaie och El-Sheimy REF introducerade möjligheten att generera ett direkt geo-refererat bildbaserat 3D-punktsmoln med smartphones.
54,203,534
THE FEASIBILITY OF 3D POINT CLOUD GENERATION FROM SMARTPHONES
{'venue': None, 'journal': 'ISPRS - International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences', 'mag_field_of_study': ['Geography']}
14,898
Abstract-Vi presenterar en ny metod som gör det möjligt för en mobil robot att uppskatta sin bana i en okänd miljö med långdistans passiv radiofrekvensidentifiering (RFID). Uppskattningen baseras endast på odometri och RFID-mätningar. Tekniken kräver ingen föregående observationsmodell och gör inga antaganden om RFID-konfigurationen. I synnerhet är den anpassad till effektnivån, det sätt på vilket RFID-antenner monteras på roboten, och miljöegenskaper, som har stor inverkan på långdistans RFID-mätningar. Taggpositionerna behöver inte vara kända i förväg, och endast den godtyckliga, givna infrastrukturen för RFID-taggar i miljön används. Genom en serie experiment med en mobil robot, visar vi att banan uppskattning uppnås exakt och robust.
Vorst och al Ref har utvecklat en metod för lokalisering på vilken skattningen endast baseras på odometri och RFID-mätningar.
12,322,588
Fully autonomous trajectory estimation with long-range passive RFID
{'venue': '2010 IEEE International Conference on Robotics and Automation', 'journal': '2010 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Engineering', 'Computer Science']}
14,899
Abstrakt. Service upptäckt är en process för att lokalisera, eller upptäcka, ett eller flera dokument, som beskriver en viss tjänst. De flesta av de nuvarande tjänsterna upptäckt metoder utföra syntaktisk matchning, det vill säga de hämtar tjänster beskrivningar som innehåller särskilda sökord från användarens fråga. Detta leder ofta till dåliga upptäcktsresultat, eftersom nyckelorden i frågan kan vara semantiskt likartade men syntaktiskt olika, eller syntaktiskt likartade, men semantiskt skiljer sig från termerna i en tjänstebeskrivning. En annan nackdel med de befintliga mekanismerna för att upptäcka tjänster är att frågetjänstens matchningspoäng beräknas med hänsyn endast till nyckelorden från användarens fråga och villkoren i tjänstebeskrivningarna. Oavsett i vilket sammanhang tjänsteanvändaren befinner sig och i vilket sammanhang tjänsteleverantörerna befinner sig, returneras samma resultatlista som svar på en viss fråga. I detta dokument presenteras ett nytt tillvägagångssätt för tjänsteupptäckt som använder ontologier för att fånga semantiken i användarens fråga, tjänsterna och den kontextuella information som anses relevant i matchningsprocessen.
REF presenterade en metod för tjänsteupptäckt som använder ontologier för att fånga semantiken hos användarens förfrågan om tjänsterna och den kontextuella information som anses relevant i matchningsprocessen.
5,264,241
Context-Aware, Ontology-Based Service Discovery
{'venue': 'EUSAI', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,900
Vi introducerar en ny strategi för inneboende bild sönderdelning, uppgiften att sönderdela en enda bild i albedo och skuggkomponenter. Vår strategi, som vi kallar direkta inneboende, är att lära sig ett konvolutionellt neuralt nätverk (CNN) som direkt förutsäger utgång albedo och skugga kanaler från en ingång RGB bild patch. Direkta inneboende är en avvikelse från klassiska tekniker för inneboende bild sönderdelning, som vanligtvis förlitar sig på fysiskt motiverade tidigare och grafbaserade inferens algoritmer. MPI Sintel datasetets storskaliga syntetiska grundsanning spelar en viktig roll för utbildningens direkta inneboende. Vi visar resultat på både de syntetiska bilderna av Sintel och de verkliga bilderna av den klassiska MIT inneboende bilddatasetet. På Sintel, direkt inneboende, med endast RGB input, överträffar allt tidigare arbete, inklusive metoder som förlitar sig på RGB + Depth input. Direkta inneboende generaliserar också över olika modaliteter; det ger ganska rimliga nedbrytningar på de verkliga bilderna av MIT-datasetet. Våra resultat visar att äktenskap av CNNs med syntetiska träningsdata kan vara en kraftfull ny teknik för att ta itu med klassiska problem i datorseende.
Narihira m.fl. REF lärde sig ett CNN som direkt förutsäger albedo och skuggning från en RGB-bild patch.
8,990,381
Direct Intrinsics: Learning Albedo-Shading Decomposition by Convolutional Regression
{'venue': '2015 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2015 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
14,901
Abstrakt. Vi har utvecklat Tm, en mallbaserad metakompilator. Med tanke på en uppsättning definitioner av datastruktur och en mall genererar Tm filer som direktierar mallen för de givna datastrukturerna. Med denna process, Tm kan generera programkod för att manipulera dessa datastrukturer. Eftersom den använder mallar, är den genererade koden inte begränsad till ett specifikt programmeringsspråk: alla tillräckligt kraftfulla programmeringsspråk kan riktas. Tm har använts för en mängd olika uppgifter och språk. Det var dock utformat för att stödja kompilatorkonstruktion, och de flesta tillämpningar har varit i det området. I denna uppsats skisserar vi Tm, och beskriver våra erfarenheter med att använda den för att konstruera en statisk kompilator för Java. Som vi kommer att visa har det avsevärt påskyndat genomförandet av kompilatorn. Nästan 75 % av dess källkod genereras av Tm, vilket gör det möjligt för oss att snabbt implementera en mycket robustare och mer sofistikerad kompilator än vad som annars hade varit möjligt.
Reeuwijk diskuterade en mall baserad meta kompilator som genererar källkod för alla programmeringsspråk REF.
6,366,655
Rapid and Robust Compiler Construction Using Template-Based Metacompilation
{'venue': 'CC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,902
Abstract-Building fasaddetektering är ett viktigt problem inom datorseende, med tillämpningar inom mobil robotik och semantisk scen förståelse. I synnerhet kan mobil plattformslokalisering och vägledning i stadsmiljöer möjliggöras med en exakt segmentering av de olika fasaderna i en scen. I detta syfte presenterar vi ett system för segmentering och märkning av en ingångsbild som för varje pixel, försöker svara på frågan "Är denna pixel del av en byggnad fasad, och i så fall, vilken?" Den föreslagna metoden avgör en uppsättning kandidatplan genom provtagnings- och klusterpunkter från bilden med Random Sample Consensus (RANSAC), med hjälp av lokala normala uppskattningar som härleds från Principal Component Analysis (PCA) för att informera planarmodellen. Motsvarande skillnadskarta och en diskriminativ klassificering ger förhandsinformation för en tvåskikts Markov Random Field-modell. Detta MRF-problem löses via Graph Cuts för att få en märkning av byggnadens fasad pixlar på mittnivå, och en segmentering av dessa pixlar till särskilda plan på hög nivå. Resultaten tyder på en stark förbättring av noggrannheten hos den binära byggnaden detektion problem över den diskriminerande klassificeringen ensam, och plan yta uppskattningar ger en god approximation till marken sanningsplan.
Delmerico Ref föreslog en metod för att bestämma en uppsättning kandidatplan genom provtagning och klusterpunkter från stereobilder, med hjälp av lokala normala uppskattningar för att informera planarmodellen.
13,428,722
Building facade detection, segmentation, and parameter estimation for mobile robot localization and guidance
{'venue': '2011 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'journal': '2011 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'mag_field_of_study': ['Computer Science']}
14,903
Redaktörer) (DFKI Saarbrücken, University of Karlsruhe, and ITC-irst) Amsterdam: IOS Press (Frontiers in artificial intelligence and applications, redigerad av J. Breuker et al., volume 123), 2005, v+171 pp; inbunden, ISBN 1-58603-523-1, $02.00, €85.00, £59.00 Denna volym är en samling av utökade versioner av papper som först presenterades vid workshops som hölls vid den europeiska konferensen om artificiell intelligens och den internationella konferensen om kunskapsutveckling och kunskapshantering 2004. Redaktörerna har alla gjort betydande insatser för att lära sig ontologi och har anordnat några av de viktiga workshopsen i området. Ontologiinlärning har blivit ett stort forskningsområde inom det bredare området artificiell intelligens och behandling av naturligt språk. Detta beror till stor del på antagandet av ontologier (särskilt formell ontologi uttryckt i OWL) som standardform för kunskapsrepresentation i den semantiska webben. De allra flesta forskare ser utmaningen som att lära sig ontologier från texter snarare än från andra möjliga källor. Denna bok är därför aktuell och representativ för många av de centrala metoder som tillämpas. Forskare som arbetar med utmaningen att bygga ontologier från text bygger i huvudsak på det stora antalet metoder som utvecklats inom beräkningslingvistik och bearbetning av naturligt språk. Genom ett omdömesgillt urval av tekniker som sträcker sig från del-av-tal taggning, styckning, och tolkning till klustering och IR-metoder, försöker de ta itu med de tre grundläggande frågor som är involverade i att konstruera ontologier: att koppla samman termer, bygga hierarkier av termer och begrepp, och identifiera och märka ontologiska relationer. Ontologiinlärning är på många sätt en specialisering av grundläggande språkliga ambitioner som automatisk lexikonkonstruktion och semantisk märkning av texter. Redaktörerna börjar volymen med en kort översikt över det ontologi-lärande landskapet och en kort redogörelse för tidningarna i volymen. De presenterar en "ontologi-lärande lagerkaka", tydligt påverkad av Tim Berners-Lees semantiska webblagertårta, som börjar med termer som grunden och fungerar upp genom synonymer, koncept, koncepthierarkier och relationer till regler på toppen. Boken delas sedan in i tre avsnitt som behandlar metoder, utvärdering och ansökningar. I det första kapitlet, "En information teoretisk metod för taxonomi extraktion för ontologi lärande", Pum-Mo Ryu och Key-Sun Choi extrahera taxonomier genom att använda den relativa specificiteten av en term till en domän för att bestämma IS-A relationer. De använder en kombination av intern NP-struktur ("insidesinformation") och syntaktiska modifierare ("utsidan information") för att i informationsteoretiska termer beräkna respektive entropi av olika termer. Deras tillvägagångssätt är intressant i kombinationen av tekniker den använder. Med hjälp av MeSH thesaurus som en guldstandard och Medline abstracts som en corpus, presenterar de siffror som visar upp till 87% precision. Även om deras tillvägagångssätt kan vara i stånd att bekräfta hierarkiska relationer, är det inte uppenbart hur lätt det kan användas för att upptäcka sådana förbindelser.
För närvarande undersöker flera studier användningen av relationsextraktion för ontologiinlärning och population REF.
7,511,403
Ontology Learning from Text : Methods , Evaluation and Applications
{'venue': 'Computational Linguistics', 'journal': 'Computational Linguistics', 'mag_field_of_study': ['Engineering', 'Computer Science']}
14,904
Lågdimensionella representationer av sensoriska signaler är nyckeln till att lösa många av de beräkningsproblem som möter i hög nivå vision. Huvudkomponentanalys har tidigare använts för att härleda praktiskt användbara kompakta representationer för olika klasser av objekt. En viktig invändning mot PCA:s tillämplighet är att det alltid leder till globala, icke-topografiska representationer som inte är möjliga att vidarebearbeta och inte är biologiskt rimliga. I detta papper presenterar vi en ny matematisk konstruktion och lokal funktionsanalys (LFA) för att härleda lokala topografiska representationer för alla klasser av objekt. De små och medelstora företagens representationer är glest fördelade och är därför eektivt lågdimensionella och behåller alla fördelar med PCA:s kompakta representationer. Men till skillnad från de globala eigenmodes, de ger en beskrivning av objekt i termer av statistiskt härledda lokala funktioner och deras positioner. Vi illustrerar teorin genom att använda den för att extrahera lokala funktioner för tre ensembler till 2D-bilder av ansikten utan bakgrund, 3D-ytor av mänskliga huvuden och nally 2D-ansikten på en bakgrund. De resulterande lokala representationerna har kraftfulla applikationer i huvudsegmentering och ansiktsigenkänning.
Penev och Atick REF föreslog den lokala funktionen analys (LFA) för att extrahera lokala funktioner genom andra ordningen statistik.
9,885,372
Local Feature Analysis: A general statistical theory for object representation
{'venue': None, 'journal': 'Network: Computation In Neural Systems', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
14,905
Urvalsförfaranden används i en mängd olika tillämpningar för att välja det bästa av en begränsad uppsättning alternativ. 'Best' definieras med avseende på det största medelvärdet, men medelvärdet härleds från statistisk provtagning, som i simuleringsoptimering. Det finns en mängd olika förfaranden som väcker frågan om vilket urvalsförfarande som ska väljas. Det viktigaste bidraget från detta dokument är att genom omfattande försök identifiera de mest effektiva urvalsförfarandena när proverna är oberoende och normalt distribueras. Vi sammanfattar också (a) de viktigaste strukturella tillvägagångssätten för att härleda urvalsförfaranden, (b) formalisera nya urvalstilldelningar och stoppa regler, (c) identifiera styrkor och svagheter i förfarandena, (d) identifiera några teoretiska kopplingar mellan dem, (e) och presentera en innovativ empirisk testbädd med den mest omfattande numeriska jämförelse av urvalsförfaranden hittills. De mest effektiva och lättast att kontrollera förfaranden fördela prover med en Bayesian modell för osäkerhet om medlen, och använda nya adaptiva stopp regler som föreslås här. Urvalsförfarandena är avsedda att välja det bästa av en begränsad uppsättning alternativ, där det bästa bestäms med avseende på det största medelvärdet, men medelvärdet måste härledas genom statistisk provtagning (Bechhofer et al. 1995)............................................................................................................ Urvalsförfaranden kan informera chefer hur man väljer det bästa av en liten uppsättning alternativa åtgärder vars effekter utvärderas med simulering, och har genomförts i kommersiella simuleringsprodukter. Urvalsförfaranden har också väckt intresse i kombination med verktyg som flera attribut verktygsteori (Butler et al. 2001), evolutionära algoritmer (Branke och Schmidt 2004), och diskret optimering via simulering (Boesel et al. 2003)............................................................................................................ Tre huvudstrategier för att lösa urvalsproblemet skiljer sig åt genom deras antaganden om hur bevisen för korrekt urval beskrivs och urvalstilldelningar görs: likgiltighetszonen (IZ, Kim och Nelson 2006), det förväntade värdet av informationsförfarandet (VIP, Chick och Inoue 2001a) och den optimala budgettilldelningen (OCBA, Chen 1996) tillvägagångssätt. IZ-förfarandena fördelar normalt prov för att ge en garanterad lägre gräns för den frekventa sannolikheten för korrekt urval (PCS), med avseende på urvalsfördelningen, för urvalsproblem i en viss klass (t.ex. är medelvärdet för det bästa minst ett på förhand angivet belopp bättre än varje alternativ). VIP-metoden beskriver bevis för korrekt urval med Bayesian bakre distributioner, och allokerar ytterligare prover med hjälp av beslut-teori verktyg för att maximera det förväntade värdet av information i dessa prover. OCBA är en heurist som använder en normal fördelnings approximation för Bayesians bakre fördelning av den okända genomsnittliga prestandan för varje alternativ för att sekventiellt fördela ytterligare prover. I varje tillvägagångssätt fastställs ett antal olika antaganden, approximationer, stoppregler och parametrar som kombineras för att definiera ett förfarande. Med så många variationer uppstår frågan om vilket urvalsförfarande som skall väljas. Frågan är viktig eftersom de krav som ställs på simuleringsoptimeringsalgoritmer ökar. Svaret kan också ge nya insikter om skillnader i den empiriska prestandan hos tre olika metoder för statistiskt beslutsfattande (klassisk, eller frekventist, statistik; Bayesian beslutsteori; och heuristiska modeller om sannolikheten för korrekt urval). * Institutet AIFB, University of Karlsruhe, Tyskland {branke,csc}@aifb.uni-karlsruhe. En grundlig jämförelse av dessa tre tillvägagångssätt har inte tidigare gjorts. Initialt arbete visar att speciella fall av VIP-utlösande specifika IZ- och OCBA-förfaranden (i en jämförelse av tvåstegsförfaranden) och specifika sekventiella VIP- och OCBA-förfaranden är effektivare än tvåstegsförfaranden (Inoue et al. 1999)............................................................................................................ KN-familjen av förfaranden är effektiv bland IZ-förfaranden (Kim och Nelson 2006). Inget papper har studerat mer än en begränsad uppsättning förfaranden med avseende på en måttlig experimentell testbädd. Detta dokument tar upp det ouppnåeliga behovet av en omfattande jämförelse av IZ-, VIP- och OCBA-förfaranden. §1 sammanfattar de viktigaste tillvägagångssätten för urvalsförfaranden, härleder nya varianter och formaliserar nya stoppregler för VIP- och OCBA-förfaranden. Varje förfarande gör approximationer, och ingen ger en optimal lösning, så det är viktigt att förstå styrkor och svagheter i varje strategi. §2 beskriver nya mätningar för att utvärdera var och en med avseende på: • Effektivitet: Medelbeviset för korrekt urval som en funktion av det genomsnittliga antalet prover. • Kontrollerbarhet: Lättheten att fastställa ett förfarandes parametrar för att uppnå en målinriktad evidensnivå. • Robusthet: Beroendet av ett förfarandes effektivitet på de underliggande problematikerna. • Känslighet: Parametrarnas effekt på det genomsnittliga antalet prover som behövs. Vissa utövare önskar en (statistiskt konservativ) lägre gräns för den riktade bevisnivån, såsom en frekventist PCS IZ garanti, men detta kan leda till överdriven provtagning. Tillsammans visar effektivitet och kontrollbarhet hur nära den önskade bevisnivån ett förfarande blir samtidigt som man undviker alltför stor provtagning. Förfarandena jämförs empiriskt på ett stort antal urvalsproblem som beskrivs i §3. Testbädden är unik inte bara på grund av sin storlek, utan också genom att den inkluderar randomiserade problemfall, förutom strukturerade problemfall som vanligtvis studeras, men som sannolikt inte finns i praktiken. Fokus ligger på applikationer där proverna är gemensamt oberoende och normalt distribueras med okända och potentiellt olika varianser, eller nästan så som är fallet i stokastisk simulering med batching (lag och Kelton 2000). Branke m.fl. (2005) presenterade en undergrupp av preliminära empiriska resultat och bedömde ytterligare stoppregler som var något mindre effektiva än de som nämns nedan. 4 § jämför empiriskt de olika urvalsförfarandena på en rad olika testproblem. Resultaten visar att ett ledande IZ-förfarande, kallat KN++ (beskrivs nedan), är effektivare än de ursprungliga VIP- och OCBA-förfarandena, men är statistiskt konservativt, vilket kan leda till överdriven provtagning. I kombination med de nya stoppreglerna är VIP- och OCBA-förfarandena effektivast. De tenderar också att vara mer kontrollerbara och robusta i experimenten nedan. §5 rekommenderar dessa förfaranden och diskuterar viktiga frågor för att välja ut ett urvalsförfarande. Tillägg i Online Companion generalisera en OCBA förfarande, ge strukturella resultat som tyder på varför vissa VIP och OCBA förfaranden fungerar på samma sätt, beskriva genomförandet, och visa och tolka ytterligare numeriska resultat. Vi formaliserar först problemet, sammanfattar antaganden och fastställer notation. I punkt 1.1 beskrivs åtgärder för att påvisa korrekt urval och på grundval av dessa införs nya stoppregler som förbättrar effektiviteten. I punkt 1.2–1.4 beskrivs befintliga och nya förfaranden från IZ, VIP och OCBA. [k] vara de beställda medlen. I praktiken är beställningen [·] okänd, och det bästa systemet, system [k], ska identifieras med simulering. De förfaranden som behandlas nedan härrör från antagandet att simuleringsutgången är oberoende och normalt distribueras, beroende på w i och σ 2 i, för i = 1,...., k. Även om normalitet antagandet inte alltid är giltigt, är det ofta möjligt att batch ett antal utgångar så att normalitet är ungefär nöjda. Vektorer är skrivna i fetstil, såsom w = (w 1,. .., w k ) och ett problem instans (konfiguration) betecknas med χ = (w, σ 2 ). Låt n i vara antalet repliker för systemet jag kör hittills. vara den ordning av provet medel som baseras på alla replikeringar som hittills setts. Jämlikhet förekommer med sannolikhet 0 i sammanhang av intresse här. Mängderna n i,x i,σ 2 i och (i) uppdateras eftersom fler replikationer observeras. Varje urvalsförfarande genererar uppskattningar av w i, för i = 1,..., k. För de förfaranden som studeras här, w i =x i, och ett korrekt urval sker när det valda systemet, system D, är det bästa systemet, [k]. Vanligtvis om T v är en slumpmässig variabel med standard t fördelning med mot grader av frihet, vi betecknar (som do Bernardo och Smith 1994) fördelningen av μ+ Om σ = ∞ eller 1/0, då St (μ, σ, v) betecknar en punkt massa på μ. Beteckna den kumulativa fördelning funktion (cdf) av standard t fördelning (μ = 0, σ = 1) av 0 mot () och sannolikhet densitet funktion (pdf) av ✔ vs (). Detta avsnitt ger en enhetlig ram för att beskriva både frekventistiska och bayesiska åtgärder för urvalsförfarande effektivitet och bevis på korrekt urval. De är skyldiga att härleda och jämföra förfarandena nedan. De används också inom Bayesian procedurerna (VIP och OCBA) för att avgöra när bevisen för korrekt urval är tillräckliga för att stoppa provtagningen. Åtgärderna definieras i termer av förlustfunktioner. Noll-one förlustfunktion, L 0‐1 (D, w) = 1 1 w D = w [k], är lika med 1 om det bästa systemet inte är korrekt valt, och är 0 annars. Alternativkostnaden L oc (D, w) = w [k] − w D är 0 om det bästa systemet väljs korrekt, och är annars skillnaden mellan det bästa och det valda systemet. Alternativkostnaden är mer förnuftig i affärsapplikationer. IZ-procedurerna tar ett ofta förekommande perspektiv. Den frekventistiska sannolikheten för korrekt urval (PCS IZ ) är sannolikheten för att medelvärdet av det system som valts som bäst, system D motsvarar medelvärdet av systemet med det högsta medelvärdet, system [k], beroende på problemet instans (detta tillåter band). Sannolikheten är med avseende på simuleringsutgången X ij som genereras av förfarandet (införandena x ij bestämma D). Olikhet zon förfaranden försöker garantera en lägre gräns på PCS IZ, med förbehåll för likgiltighet-zon begränsning att det bästa systemet är minst δ * > 0 bättre än de andra, Ett valt system inom δ * av det bästa kallas bra. Vissa IZ-procedurer uppfyller frekventa sannolikhet för goda urvalsgarantier, PGS IZ,δ * (χ) Bayesian procedurer antar att parametrar vars värden är okända är slumpmässiga variabler (t.ex. det okända medlet W), och använder de bakre fördelningarna av de okända parametrarna för att mäta kvaliteten på ett urval. Med tanke på de data E sett hittills, två mått på urval kvalitet är förväntan över både D (som bestäms av den slumpmässiga X ij ) och den bakre fördelningen av W, givet E. Om man antar en icke-informativ föregående fördelning för det okända medelvärdet och varians, den bakre marginell fördelning för det okända medelvärdet Groot 1970). Varje Bayesian procedur nedan väljer systemet med det bästa provtagningsmedelvärdet efter all provtagning, D = (k). Tillnärmningar i form av begränsningar av ovanstående förluster är användbara för att härleda urvalstilldelningar och fastställa stoppregler. Slepians ojämlikhet (t.ex., se Kim och Nelson 2006) innebär att det senare beviset för att systemet (k) är bäst uppfyller Den högra sidan av Ojämlikhet (3) är ungefär där d * jk är det normaliserade avståndet för system (j) och (k), och v (j) k) kommer från Welch approximation för skillnaden W (k) − W j) av två skiftade och skalade t slumpvariabler (lag och Kelton 2000, s. 559):. Vi fann att approximationen av Welch överträffade en annan approximation vid tidigare jämförelser av urvalsförfaranden (Branke et al. 2005).................................................................. Den bakåtriktade sannolikheten för ett bra urval, där det valda systemet ligger inom δ * av det bästa, kan approximeras på ett liknande sätt av Termen EOC Bayes kan vara dyrt att beräkna om k > 2. Sammanräkning av förlusterna från (k − 1) parvisa jämförelser mellan det nuvarande bästa och det andra systemet ger en lätt beräknad övre gräns för Inoue 2001a, 2002). Låt f (j)(k) (·) vara den bakre pdf för skillnaden Vi betecknar den standardiserade EOC-funktionen av Chick och Inoues övre gräns för EOC Bayes är lätt att approximera, med Bonferronis ojämlikhet, av EOC Bonf, där VIP och OCBA procedurer som definieras nedan kan använda värdena för EOC Bonf och PGS Slep,δ * för att besluta när man ska stoppa provtagning. I synnerhet används följande stoppregler: 1. Sekventiell (S): Upprepa provtagningen medan k i=1 n i < B för vissa angivna totala budget B. 2. Utgångspunkten är följande: Sannolikheten för ett bra urval (PGS Slep,δ * ): Upprepa medan PGS Slep,δ * < 1 − α * för ett angivet sannolikhetsmål 1 − α * och ges δ * ≥ 0. 3. Vad är det som händer? Förväntade alternativkostnad (EOC Bonf): Upprepa medan EOC Bonf > β *, för en specificerad EOC mål β *. Tidigare arbete för sekventiella VIP- och OCBA-procedurer använde S-stoppregeln. De övriga stoppreglerna ger flexibilitet att stoppa tidigare om bevisen för korrekt urval är tillräckligt höga och möjliggör ytterligare provtagning när bevisen inte är tillräckligt höga. IZ kräver δ * > 0. VIP- och OCBA-tillståndet δ * = 0 för att uppnå ett rent PCS-baserat stopptillstånd. Vi använder PCS Sleep för att beteckna PGS Slep,0. IZ-metoden (Bechhofer m.fl.) 1995; Kim och Nelson 2006) försöker garantera PCS IZ ≥ 1 − α * > 1/k, när det bästa systemet är minst δ * bättre än de andra systemen. Parametern indifferent-zon δ * framkallas vanligtvis som den minsta skillnaden i genomsnittlig prestanda som är betydande för beslutsfattaren. Vissa KN-procedurer, inklusive KN++, kan hantera det mer allmänna fallet med korrelerad simuleringsutgång. Här specialiserar vi procedur KN++ för oberoende utmatning. Proceduren skärmar ut vissa system som körs observeras, och varje icke-eliminerat system simuleras samma antal gånger. Vi använde till = 1 replikering per steg per icke-eliminerat system, och uppdaterade provvariansen i varje steg. Förfarande KN++ (oberoende prov) 1. Ange en konfidensnivå 1 − α * > 1/k, en parameter för likgiltighetszon δ * > 0, en förstastegsprovstorlek n 0 > 2, och ett antal prov som ska köras per icke-eliminerat system per efterföljande steg. 2. Utgångspunkten är följande: Initiera uppsättningen icke-eliminerade system, 4. Återlämna återstående system, system D, som bäst. VIP fördelar prov till varje alternativ för att maximera det förväntade värdet av information (EVI) av dessa prover. Vissa balanserar kostnaden för provtagning med EVI, och vissa maximerar EVI som omfattas av en provtagning Detta avsnitt påminner om dessa förfaranden, och anpassar dem för att tillåta användning av stoppreglerna i §1.1. Förfarande 0-1. 1. Vad är det för fel på dig? Ange en provstorlek i första etappen n 0 > 2 och ett totalt antal prov τ > 0 som ska fördelas per efterföljande steg. Ange parametrar för stoppregler. 2. Utgångspunkten är följande: Kör oberoende replikationer X i1,. ., X i 0, och initiera antalet replikeringar n i ← n 0 köra hittills för varje system, i = 1,...., k. och normaliserad avstånd d * ik är som i (4) Förfarande LL är en variant av 0-1 där provtagning tilldelningar försöker minimera EOC Bonf. Förfarande LL. Samma som förfarande 0-1, förutom set γ i) i steg 4c till OCBA är en klass av förfaranden som ursprungligen föreslogs av Chen (1996) och som har flera variationer (t.ex. Chen och Al. 2000; Chen m.fl. 2006).................................................................. Variationerna innebär olika approximationer för PCS Bayes, och heuristik för hur ytterligare prover kan förbättra sannolikheten för korrekt urval. Här anger vi idén bakom OCBA och de variationer som används för detta papper. OCBA utgår från att om ytterligare τ-replikationer tilldelas för system i, men ingen tilldelas för de andra systemen, ska standardfelet för det uppskattade medelvärdet för system i skalas tillbaka därefter. Den vanliga OCBA antar normala distributioner för att approximera effekten, men vi använder Student distributioner, för konsekvens med en Bayesian antagande för den okända σ 2 i. Chen et al. (2006) Effekten av att tilldela ytterligare τ replikationer till system i, men inga replikationer till de andra, leder till en uppskattad ungefärlig sannolikhet för korrekt urval (EAPCS) utvärderas med avseende på fördelningen av W = (W 1,. ..,W k ), och medW (j) −W (k) ungefärlig med hjälp av Welch approximation. där 1 1 {·} är 1 om argumentet är sant, och 0 annars. Dessa approximationer resulterar i en sekventiell OCBA-algoritm som girigt fördelar prover till system som mest ökar EAPCS i − PCS Sleep i varje steg. En nyhet för OCBA här är att provtagningen fortsätter tills en stoppregel från §1.1 är nöjd. Förfarande OCBA. 1. Vad är det för fel på dig? Ange en förstastegsprovstorlek n 0 > 2, ett antal q system att simulera per steg, en provtagningssteg τ > 0 för att fördela per efterföljande steg, och stoppa regelparametrar. 2. Utgångspunkten är följande: Kör oberoende replikationer X i1,. ., X i 0, och initiera antalet replikeringar n i ← n 0 köra hittills för varje system, i = 1,..., k. 3. Bestäm provet statistikx i och σ 2 i och provet medel beställning, så attx ( He, Chick, och Chen (2006) föreslog en OCBA variation, OCBA LL, som står för den förväntade alternativkostnaden, och visade att den ursprungliga OCBA förfarande, den nya OCBA LL och LL presterar bättre än några andra förfaranden i flera empiriska tester. I analogi med EAPCS i ovan är set Proceduren OCBA LL en variant av OCBA som fördelar replikationer till system som maximerar förbättringen av förväntade alternativkostnader (linjär förlust), EOC Bonf − EEOCS i, i steg 4b. Alla ändringar av OCBA ovan genomfördes som fullständigt sekventiella förfaranden här (q = 1 och τ = 1). Den OCBA heuristics i litteraturen hittills antar normalt distribuerade prover. Trots detta behövs endast den asymmetriska normaliteten i den bakre fördelningen av medelvärdet för att rättfärdiga OCBA-heurismen. I själva verket konvergerar senare fördelningar till en normal fördelning enligt relativt allmänna urvalsantaganden (Bernardo och Smith 1994, Theorem 5.14). Detta resultat kan användas för att asymptotiskt motivera OCBA-heurismen även enligt dessa relativt allmänna provtagningsantaganden, inte bara för normalt fördelade prover. (2005) rapporterar preliminära resultat för andra anslag och stoppregler som visade sig vara mindre effektiva än de som behandlas i detta dokument. Vi testade också effekten av att inkludera tidigare information om medel och avvikelser i VIP och OCBA konfigurationer, som diskuteras i §3 nedan. Vid varje iteration är tiden för att beräkna en tilldelning proportionell mot kvadraten på antalet icke-eliminerade system för KN++, till k 2 i värsta fall för VIP (till k om τ är stor) och till k för OCBA. För de flesta praktiska tillämpningar är tiden att beräkna tilldelningen mycket kortare än varaktigheten för en typisk simulering. Varje förfarande kan fördela flera prover åt gången om så inte är fallet. Förfarandena har lägre effektivitetskurvor. Effektivitetskurvor ignorerar frågan om hur man ställer in en procedur parametrar för att uppnå en viss PCS IZ eller EOC IZ. Som en praktisk fråga förväntar man sig en viss avvikelse mellan ett stoppregelmål, säger PCS ≥ 1 − α * > 1/ k, och den faktiska PCS IZ uppnås. Avvikelsen mellan önskad och realiserad prestanda mäts med målkurvor som ritar (log α *, log( 1 − PCS IZ )) för PCS-baserade mål 1 − α *, och (log β *, log EOC IZ ) för alternativ kostnadsmål β *. Förfaranden vars målkurvor följer diagonalen y = x över en rad problem är "kontrollerbara" genom att det är möjligt att ställa in parametervärden för att få en önskad nivå av korrekt urval. "Konservativa" förfaranden har målkurvor som tenderar att vara under y = x, och sägs "överleverera" eftersom den frekventistiska åtgärden för korrekt urval överskrider det önskade målet. Ett förfarande som är konservativt kan ha en önskvärd peakist garanti för PCS IZ, men stark överleverans resulterar i överdriven provtagning. Ett kontrollerbart förfarande kan inte ha någon PCS IZ-garanti om målkurvan varierar något över och under diagonalen. Vi säger att ett förfarande är mycket effektivt, om det är både effektivt och kontrollerbart. Målkurvor kan också bedöma om Bayesian PCS mål karta väl till PCS IZ eller inte ( VIP och OCBA ännu inte hävdar PCS IZ garantier). Ett stort antal problemfall bedömde styrkan och svagheterna i varje förfarande. Vi utforskade bokstavligen tusentals kombinationer av antalet system, den första etappens provtagningsstorlek, specifika konfigurationer, tilldelningar, stoppregler och deras parametrar, prestandamått etc. Vi testade slumpmässiga problemfall och möjligheten att använda tidigare information om de okända medlen. Designinställningar valdes för att undersöka första ordningens effekter av stoppreglerna och varje parameter för konfigurationer och tilldelningar, men inte interaktioner. Bilaga D innehåller ytterligare uppgifter om försökens struktur. I en glidningskonfiguration (SC) är medlet för alla system utom de bästa knutna för näst bästa. En SC identifieras genom antalet system, skillnaden i medel för de bästa och varandra system, och varianserna för varje system. Parametrarna δ, ρ beskriver de konfigurationer vi testade. Om ρ = 1, då alla system har samma varians, och ρ < 1 innebär att det bästa systemet har en mindre varians. Vi sätter σ 2 1 = 2ρ/(1 + ρ) så att Var[X 1j − X ij ] är konstant för alla ρ > 0. I en monoton minskande medel (MDM) konfiguration, medlen för alla system är jämnt fördelade så att vissa system är ganska lite underlägsen de bästa. Parametrarna δ och ρ beskriver de konfigurationer som vi testade. Utgångarna var gemensamt oberoende, och vi satte σ 2 1 som i SC. Värden för ρ < 1 innebär att bättre system har en mindre varians. För tillräckligt små ρ är sannolikheten för att det värsta systemet har det bästa observerade medelvärdet högre än sannolikheten för det näst bästa systemet. För SC och MDM konfigurationer testade vi hundratals, men inte alla, av följande kombinationer: Bedömningar av urvalsförfaranden i litteraturen brukar tillämpa förfaranden för en specifik uppsättning av strukturerade problem, som ovan. Sådana strukturerade problematiker är atypiska i praktiken. Ett problem som man finner i praktiken kan betraktas som "slump". Slumpmässiga problem instans (RPI) konfigurationer prov problemet instans χ innan du tillämpar ett urvalsförfarande. I varje RPI konfiguration nedan, utdata är gemensamt oberoende,.., k, beroende på problemet instans. Det finns ingen objektivt bästa fördelning för urvalsproblemfall, så vi gör godtyckliga val och identifierar fördomarna hos var och en. Den första RPI-konfigurationen (RPI1) tar prov χ från den normala inversa gammafamiljen. En slumpmässig χ genereras genom provtagning av σ 2 i oberoende, sedan provtagning den ökande η gör medlen mer likartade och därmed problemet svårare. Vi ställer in c = b − 1 > 0 för att standardisera medelvärdet av variansen att vara 1, och ställa in μ 0 = 0. Öka b minskar skillnaden mellan varianserna. Vi har testat många kombinationer av k {2, 5, 10, 20}, η {0.354, 0.5,...., 4} (förhållandet mellan 2 och 2, 5, 100} och n 0 (4, 6, 10}. Härledning av VIP- och OCBA-förfaranden antar η → 0. RPI1-konfigurationen gör det möjligt att testa om VIP- och OCBA-förfarandena kan dra nytta av att använda provtagningsfördelningen av χ i (10) för att beskriva tidigare bedömning av varje systems medel och varianser. § 1 tillåter inte detta direkt, men den matematiska utvecklingen tillhandahölls på annat håll 1998, 2001a). Sammanfattningsvis, den bakre fördelningen av W i, med tanke på den tidigare fördelningen i (10) och data, och η = η + n i. För att tillämpa detta resultat på alla VIP-förfaranden i §1.3, ersätta hex i med μ 0 ; ersätta varje σ 2 i med c / b ; och ersätta varje n i med η, utom i graderna av frihet, där n i − 1 bör ersättas med 2b. Hittills har OCBA alltid antagit en icke-informativ tidigare distribution. Icke desto mindre tillåter analoga substitutioner OCBA och OCBA LL att använda andra tidigare distributioner för okända metoder och varianser. En andra RPI-konfiguration (RPI2) prover problematiskt fall från en annan distribution än normalinverterad gamma för att minska eventuella potentiella fördelar för VIP och OCBA metoder. Vi valde RPI2 till oberoende prov från: SC gynnar IZ-förfaranden i det att IZ-förfaranden ger en minimal målprestanda med avseende på en minst gynnsam konfiguration (LFC). För många IZ-procedurer är SC med δ = δ * en LFC. Även om LFC i KN familjen inte har bevisats, empiriska studier av KN - typ förfaranden ofta bedöma denna konfiguration. RPI1 (η nära 0) gynnar VIP och OCBA, eftersom härledningen av dessa förfaranden förutsätter tidigare sannolikhetsmodeller som liknar provtagningsfördelningen av problemfallen. MDM, RPI1 (större η) och RPI2-konfigurationer verkar inte gynna något förfarande i detta dokument. Det är omöjligt att presentera alla de numeriska resultaten i en kort artikel. I detta avsnitt sammanfattas de viktigaste kvalitativa observationerna från analysen. Bilaga A ger fler numeriska resultat. I bilaga C beskrivs genomförandet. I följande analys beräknades varje punkt som definierar varje effektivitets- och målkurva (en för varje kombination av problemfall, förfarande och val av parametrar) med 10 5 prov (tillämpning av ett förfarande). För att skärpa kontrasterna mellan olika förfaranden användes gemensamma slumptal (CRN) för att generera gemensamma RPI-konfigurationer och för att synkronisera de prov som observerats över procedurer. Proverna var oberoende inom varje förfarande. I noteringen KN++ δ * anges valet av δ * för KN++. Som standard n 0 = 6 om inte annat anges.. Dessutom noterar vi att effektivitetskurvorna för KN++ och Equal(S) är rakare än för PCS- eller EOC-stoppreglerna. Dessa Bayesian stopp regler orsakar en liten krökning som är kopplad till valet av n 0 (en mindre n 0 ger mer krökning, mer på n 0 nedan). För en högre PICS är Equal( EOC Bonf ) effektivare än KN++, medan för en mycket låg PICS, KN++ slår Equal( EOC Bonf ). En målplott kan visa hur mycket ett förfarande avviker från det önskade målet (överleverans och underleverans). SC-konfigurationen för målplotten i figur 2 är samma konfiguration som användes för effektivitetsplotten i figur 1. Mållinjen för PCS-baserade stoppregeln är under diagonalen, vilket innebär att den erhållna PICS IZ är mindre än det önskade målet α *. Till exempel för en önskad α * = 0,02, en PICS IZ = 0,005 erhålls med Equal(PICS IZ ). Eftersom δ * ökar för PGS IZ * stoppregeln, skiftar målkurvan uppåt (målet uppnås inte för δ * > 0,5). Målet tomt för KN++ 0.5 följer diagonalen brunnen, vilket innebär att den erhållna PICS IZ matchar önskat mål α * väl för denna konfiguration (detta observerades för KN++ med alla SC konfigurationer som hade k ≥ 2 och δ * = δ). Eftersom δ * minskas lutar linjen nedåt, vilket innebär att KN++ blir extremt konservativ. Konsekvenserna av konservativitet kan härledas genom att titta på effektivitet och mål tomter tillsammans. Exempelvis är x-axeln för målytan KN++ 0,3 0,025, vilket innebär att ett mål på α * = 0,025 resulterade i en faktisk PICS IZ = 0,001 (överlever PCS). I figur 1, Det genomsnittliga antalet replikeringar för. Detta visar att ett förfarande med bra effektivitetskurvor kan kräva mycket mer provtagning än vad som krävs för att uppnå en given bevisnivå för korrekt urval, om detta förfarande är konservativt. Å andra sidan riskerar PGS stoppregeln att leverera en PICS IZ högre än önskat (för Equal(PGS Slep,0.5 ), PCS målet inte uppnås). Ett annat sätt att tolka effektivitet och målkurvor är att notera att effektivitetskurvan för KN++ 0,7 i figur 1 slutar nära nivån för PICS IZ = 0,009. Det är symptomatiskt för en underleverans av PICS IZ, som vi testade värden på α * ner till 0,001. Figur 2 bekräftar denna underleverans, eftersom målytan för KN++ 0.7 i figur 2 är ovanför diagonalen. Detta särskilda fall av underleverans är helt förenligt med IZ-metoden, eftersom parametern för likgiltighetszon överstiger skillnaden i medelvärde (δ * = 0,7 > δ = 0,5). Figur 4 visar hur olika urvalstilldelningar jämför för en given stoppregel (här, för EOC Bonf ). Lika presterar mest effektivt (det är optimalt för just denna inställning), med 0-1 och OCBA följande. LL utför identiskt med 0-1 för detta problem (inte visat, för att undvika röran siffran). En liknande företräden observeras för PCS Slep och PGS Slep,δ * stopp regler. För S stoppa regeln, alla VIP och OCBA tilldelningar utför ungefär samma som Equal (inte visas, för att undvika skräp). Med adaptiva stoppregler (EOC Bonf, PCS Slep, PGS Slep,δ * ), ett stort antal initiala prover per system, n 0, begränsar möjligheten att göra ett tidigt urval, men en liten n 0 ökar sannolikheten för dåliga uppskattningar av utdata medelvärde och varians. För den bakre marginella fördelningen av de okända medlen för att ha en ändlig varians, kräver vi n 0 ≥ 4. Figur 5 visar att ökningen n 0 i förfarande Equal (EOC Bonf ) ökar antalet prover som krävs för att nå relativt låga bevisnivåer för korrekt urval, men ökar effektiviteten i förfarandet för att nå höga bevisnivåer för korrekt urval. Skillnaderna i kurvorna tillskrivs huvudsakligen produktionen som gör att provtagningen upphör efter mycket få prover på grund av vilseledande låga varianser och PICS-uppskattningar. OCBA- och VIP-förfarandena beter sig på samma sätt som Equal i detta avseende för varje stoppregel. Med den icke adaptiva stoppregeln (S), verkar de okänsliga för n 0. Figur 5 visar också att KN++ är okänsligt för n 0, en observation som hölls i allmänhet. EOC Bonf-stoppregeln är känslig för skillnaden mellan de två systemen, δ (se figur 6 ). Den underlever EOC IZ något för små δ, och betydligt överleveranser för stora δ. Totalt sett, för SC med k = 2 och vanliga varianser (ρ = 1), Equal( EOC Bonf ) och KN++ är de mest effektiva. Inget förfarande är fullt kontrollerbart för SC, k = 2. Online Companion hävdar också att vi inte kunde hitta ett allmänt sätt att "trick" förfarandet genom att sätta δ * och α * till icke-traditionella värden för att uppnå vissa faktiskt önskad nivå PCS IZ. Kommentarerna hittills förutsätter en gemensam avvikelse (ρ = 1). När ρ = 1, är lika allokering inte optimal, och fler prover bör distribueras till systemet med en högre varians. Vi noterade att KN++ och Equal blir mindre effektiva än de Bayesianska anslagen eftersom ρ ändras från 1 (Online Appendix). SC med k > 2 system. Det är inte optimalt att prova varje system lika ofta om k > 2, så KN++ och Equal är inte längre optimala i denna inställning, även om varianserna är lika. En jämförelse av effektiviteten hos de olika tilldelningsreglerna, för EOC Bonf stoppregeln och k = 10 system, illustreras i figur 7. Inställningarna är jämförbara med figur 4, som hade k = 2 system. Medan Equal är optimal för k = 2, det utför värsta för k = 10. De mest effektiva tilldelningarna är OCBA LL och OCBA, sedan LL nära bakom. KN++ är mycket mindre effektivt än OCBA LL, OCBA och LL (var och en med EOC Bonf som stoppregel). Skillnaden mellan de Bayesianska förfarandenas effektivitet i förhållande till Equal- och KN++-förfarandena ökar med k (testade k = 2, 5, 10, 20), förmodligen eftersom de kan fördela fler prover till det mest relevanta (bästa) systemet från början. Detta påståendes kvalitativa karaktär ändras inte eftersom δ och ρ är individuellt differentierade från de värden som används för tomten. Andra observationer för k = 2 som också håller för k = 5, 10 och 20 inkluderar: företrädet för effektiviteten av stopp regler (EOC Bonf slår PCS Slep som slår S); vikten av en tillräckligt stor n 0 för VIP- och OCBA förfaranden; känsligheten för KN++ till δ * men inte n 0. Monotondecreasing innebär att lägga till komplikationen att EOC IZ inte är proportionell mot PCS IZ när k > 2. Dock är VIP- och OCBA-tilldelningarna med den nya stoppregeln för EOC Bonf effektivare än KN++, på grund av EOC Bonfs flexibilitet att sluta när, och endast när, tillräckliga bevis för korrekt urval erhålls. För varje MDM konfiguration testad, LL (EOC Bonf ) och OCBA LL ( EOC Bonf ) är inte statistiskt olika för effektivitet, och de var de mest effektiva tilldelningar, som i figur 8. Dessa två förfaranden utför också ungefär samma i målytor för de flesta konfigurationer. OCBA δ * och 0-1 utfördes på liknande sätt som när EOC Bonf användes. Med S stopp regeln, dock 0-1 presterade dåligt. Figur 9 visar att målprestandan för KN++ återigen är mycket känslig för parametern δ *. Medan KN++ följer målet ganska bra för SC när δ * = δ, överlever det betydligt även för denna inställning för MDM-konfigurationen. Förfarande OCBA LL (PGS Slep,δ * ) är också känslig för parametern δ *, och misslyckas med att få den önskade PICS IZ för δ * > 0,2 även om δ = 0,5. Medan målkurvorna för OCBA LL (PGS Slep,δ * ) skiftar ungefär parallellt med diagonalen, ändrar målkurvorna för KN++ lutningen. Detta innebär att KN++ blir mer konservativ eftersom mer extrema bevisnivåer (α * ) söks, om δ * < δ, men OCBA LL (PGS Slep,δ * ) tenderar att vara konservativ med samma mängd, på en loggskala. På det hela taget är, liksom för SC, KN++ och PGS Slep,δ * mycket känsliga för δ * och därmed inte kontrollerbara i den mening som anges ovan. Prover för alla förfaranden, men i synnerhet försämrar effektiviteten hos KN++ (i längst till höger om effektivitetsytan) i förhållande till PCS Sleep-förfarandena. KN++ överlever också mer än vissa andra förfaranden (höger panel). Anledningen är att KN++ prover alla icke-eliminerade system, även de vars medel har uppskattats med hög precision, tills ett system väljs som bäst. Målkurvorna för alla förfaranden är relativt okänsliga för ρ (målkurvan beror främst på skillnaden mellan de två system som konkurrerar mest bäst, så effektiviteten påverkas mer än målkurvan). För alla SC- och MDM-konfigurationer och nästan alla provtagningsförfaranden uppvisar effektivitetskurvorna en viss krökning. Vi hittade flera förklaringar för böjda effektivitetslinjer för OCBA och VIP-procedurer. En, en liten n 0 leder till dåliga inledande uppskattningar av variansen, med en potential för antingen a) tidig stopp om PICS är starkt underskattad, eller b) ett massivt antal prov som krävs om en extremt låg PICS eller EOC önskas, initiala uppskattningar tyder på att det bästa systemet är värst, och förfarandet sedan försöker att skilja mellan likvärdiga system i SC. Båda fallen lindras genom att öka n 0. Två, testbädden drev procedurerna till nya gränser för numerisk stabilitet. Preliminära effektivitetsytor för vissa förfaranden var något mer böjda än de som presenteras här. Bilaga C beskriver beräkningstekniker som vi använde för att minska denna krökning. Vi tror att denna orsak eliminerades. Tre exponentiella konvergensresultat för ordinala jämförelser är asymptotiska och endast tillgängliga för vissa förfaranden, så raka linjer bör inte förväntas på alla nivåer av PICS IZ och EOC IZ för alla förfaranden. Slumpmässiga problematiker 1. För alla RPI-konfigurationer generaliseras mätvärdena för bevisen för korrekt urval i effektivitets- och målytorna till att vara förväntningar på provtagningsfördelningen av problemfallen, t.ex. PCS IZ = E χ [PCS IZ (χ)]. Man måste välja δ * > 0 för PGS Slep,δ * stoppregeln eftersom det finns en rimlig sannolikhet att de två bästa systemen har mycket liknande medel, i vilket fall δ * = 0 resulterar i överdriven provtagning (så δ * = 0 ska undvikas i praktiken). Av samma anledning mäter vi effektivitet med sannolikheten för ett dåligt urval, PBS IZ,δ *, istället för PICS IZ, i detta avsnitt. Ett dåligt urval har ett medelvärde som är minst δ * värre än medelvärdet för det bästa systemet. Procedurer som använder en likgiltig zonparameter δ * kan möjligen få sin effektivitet mätt med en PGS δ * * * som använder en likgiltig zonvärde δ * * = δ *, men filosofiskt sett verkar detta vara inkonsekvent. Vi använder därför samma parameter för "matchning" av likgiltighetszon δ * för både tilldelningar och empiriska mätningar, om inte annat anges (se även figur 30 i Online Companion). För i princip alla RPI-inställningar är LL, OCBA LL och OCBA δ * fördelningsregler mer eller mindre lika effektiva. Fördelningen 0-1 är i allmänhet mindre effektiv (den härleds med mer approximationer, och avfallsprover som försöker skilja mellan två mycket nära konkurrenter i RPI) och Equal är värst. Figur 11 visar denna punkt för S-stoppregeln. Även om skillnaden i effektivitet mellan tilldelningsreglerna är ganska liten för RPI, varierar resultatet av stoppreglerna kraftigt. I figur 12 jämförs olika stoppregler i kombination med Equal allokering baserad på PGS IZ * effektivitet. Det är uppenbart att PGS Slep,δ * stoppregeln med en matchande δ * är den mest effektiva (och målkurvan är också bra i denna inställning). För EOC IZ effektivitet finns inställningar för δ * så att PGS Slep,δ * är effektivare än EOC Bonf stoppregeln, se figur 13 (vänster panel (den högra panelen visar en brist på kontrollbarhet om man skulle försöka styra EOC IZ genom att ställa in β * = δ * α *, vilket är den förväntade alternativkostnaden för LFC när det gäller PCS för ett antal IZ förfaranden). Flera effektivitetskurvor, särskilt Equal(S) i figur 12 och figur 13, är mer böjda för RPI1 resultat än för SC och MDM resultat. Att krökning beror till stor del på ett mycket stort antal prover för några mycket "hårda" konfigurationer (de bästa två systemen har mycket nära medel och stora varianser). För RPI1-konfigurationer, LL, OCBA LL och OCBA δ *, var och en med PGS Slep,δ * stoppregel, typiskt bättre än KN++ för effektivitet och kontrollbarhet. Figur 14 illustrerar denna observation genom att beskriva effekten av olika δ * och α * på det antal prover som krävs av KN++ och OCBA LL (PGS Slep,δ * ), och förmågan att leverera önskat PGS (den δ * parameter i förfarandet används också för att mäta PGS IZ,δ * ). För denna siffra, med k = 50, minskades antalet makroreplikationer till 10 4 för att hålla simuleringstiden rimlig. Den vänstra panelen visar att OCBA LL (PGS Slep,δ * ) följer målet mycket bättre än KN++ (som knappt syns längst ner till höger om figuren). Den högra panelen visar att straffet för konservativitet är en betydligt högre provtagningsinsats för en given önskad α *. Till exempel för α * = 0,01 och δ * = 0. Figur 15 : Inverkan av η på effektivitet och mål för PCS-baserade förfaranden (RPI1, k = 5, b = 100). Som kan ses i figur 15, känsligheten med avseende på η i RPI konfigurationer är mycket mindre än känsligheten med avseende på δ observeras för SC och MDM konfigurationer i figur 6. Observera att skillnaden mellan det bästa och det näst bästa systemet är proportionell mot η −2. För effektivitet (vänster panel), Om förkunskaper om fördelningen av medel och varianser finns tillgängliga, kan detta integreras i Bayesian förfaranden, som beskrivs i §3. Fördelen med att göra detta framgår om möjligt av figur 16 (vänster panel). Den översta raden visar effektiviteten i standarden Equal allokering med budget (S) stoppregeln. Detta kan förbättras stegvis genom att övergå till en flexibel tilldelning (OCBA LL (S)), sedan använda en adaptiv stoppregel (OCBA LL (EOC Bonf ) ), och slutligen använda tidigare information (OCBA tidigare LL (EOC tidigare Bonf ) ). Dessa förändringar minskar det genomsnittliga antalet prover som krävs för att uppnå en förlust på 0,01 från 291 för Equal (S) till 164 för OCBA LL (S), sedan till 94 för OCBA LL (EOC Bonf ), och slutligen till 79 för OCBA före LL (EOC före Bonf ). Kontrollbarheten påverkas endast något genom att använda tidigare information i detta test (höger panel). Slumpmässiga problematiker 2. RPI2-konfigurationen tar stickprov på slumpmässiga problemfall med en distribution som inte motsvarar de underliggande antagandena om härledning av VIP- och OCBA-förfaranden. Ändå fungerar procedur LL och OCBA LL igen nästan identiskt för effektivitet och kontrollbarhet, så endast den senare visas i diagram. Figur 16: Effekt av allokering, stoppregel och förhandsinformation (RPI1, k = 5, η = 1, b = 100). Det är därför inte förvånande att resultaten är mycket likartade. Bilaga A.6 innehåller fler diagram. På det hela taget fungerar OCBA LL och LL mycket bra för RPI2 även om problemfallen inte har den normala inverterade gammadistributionen som är implicit i deras härledning. En liten försämring av effektiviteten i förhållande till KN++ kan förväntas om det finns flera mycket bra system, men kontrollmöjligheten kvarstår med PGS Slep,δ *. Procedur 0-1 är mindre effektiv och inte mer kontrollerbar. Valet av urvalsförfarande och dess parametrar kan ha en enorm effekt på den ansträngning som används för att välja det bästa systemet, och sannolikheten för att fatta ett korrekt beslut. Den nya experimentuppställningen (inklusive slumpmässiga problemfall) och mätdisplayer (effektivitets- och målkurvor i motsats till tabeller) visade sig vara användbar för att identifiera styrkor och svagheter i både befintliga och nya förfaranden. Styrkar av KN++ inkluderar en låg känslighet för antalet första steg prover (n 0 ), och dess naturliga förmåga att redogöra för korrelerad utgång. Det är den enda metod som testas här med en bevisad asymptotisk nedre gräns för PCS IZ ≥ 1 − α * > 1/k. Kostnaden för att föredra en lägre gräns för PCS är potentialen för mycket överdriven provtagning. Även om vi bara testade måttligt antal system, KN++ verkar förlora effektivitet i förhållande till Bayesian förfaranden som antalet system ökar. Vi rekommenderar att de Bayesianska tilldelningsförfarandena kombineras med en adaptiv stoppregel för att avsevärt förbättra effektiviteten. Oberoende av stoppregeln är de förlustbaserade tilldelningarna LL och OCBA LL bland de mest effektiva tilldelningarna. Online Companion föreslår teoretiska skäl till varför OCBA LL och LL presterar så på samma sätt. Den mest effektiva och kontrollerbara stoppregeln beror på önskat mål (EOC Bonf eller PGS Slep,δ * ). Den starka effektiviteten är relativt robust mot olika konfigurationer och styrbarheten är relativt robust för RPI. Dessa förfaranden gör det också möjligt att införa förhandsinformation om problemfall när sådana finns tillgängliga. Andra styrkor inkluderar förmågan (i) att fördela prover för att optimera den totala CPU-tiden även om CPU-tiderna för varje system är olika (Chick och Inoue 2001a, och bilaga B), (ii) att köra med en tidsbegränsning med S stoppregeln, och (iii) att köra som en två-stegs procedur om det behövs (t.ex., EOC Bonf stoppregeln kan anpassas till två steg genom att hitta en andra-stegs provtagning budget som uppnår en önskad förutsagd EOC Bonf ). Svaga punkter i dessa förfaranden är beroende av det ursprungliga antalet prover för varje system, n 0 (vi rekommenderar n 0 ≥ 6), och potentialen för en liten försämring i prestanda om det finns många system som är nära det bästa. Procedures Equal och 0-1 rekommenderas inte för allmän användning. Vi bedömde inte utdata från simuleringar i steady-state. KN++ använder batching för att uppskatta varianser, en standardteknik för hantering av autokorrelering från sådana simuleringar, men kan ta observationer en i taget. Vi förstår inte varför batching kan påverka de olika Bayesianska förfarandena på olika sätt. Vi väljer därför OCBA δ * (PGS Slep,δ * ), med δ * > 0, för ytterligare arbete för att integrera urvalsförfaranden i diskret optimering via simuleringsmiljöer där PGS är av intresse. De tydliga vinnarna för tillämpningar där simuleringsutgången representerar ekonomiskt värde är LL(EOC Bonf ) och OCBA LL (EOC Bonf ). Erkännande. Vi tackar Seong-hee Kim och Demet Batur för mycket hjälpsamma diskussioner om KN++.
Dessutom har varje förfarande ett stort antal parametrar, vilket påverkar dess noggrannhet REF.
14,667,184
Selecting a Selection Procedure
{'venue': 'Management Science', 'journal': 'Management Science', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
14,906
Intention inference kan vara ett viktigt steg mot effektiv människa-robot interaktion. För detta ändamål föreslår vi Intention-Driven Dynamics Model (IDM) att probabilistiskt modellera den generativa processen av rörelser som styrs av avsikten. IDDM tillåter avsikten att härledas från observerade rörelser med Bayes' teorem. IDDM finner samtidigt en latent tillstånd representation av bullriga och högdimensionella observationer, och modellerar den avsiktsdrivna dynamiken i latent tillstånd. Eftersom de flesta robottillämpningar är föremål för begränsningar i realtid, utvecklar vi en effektiv online-algoritm som möjliggör realtids intention inference. Två interaktionsscenarier mellan människa och robot, d.v.s. målförutsägelse för robot bordtennis och actionigenkänning för interaktiva humanoida robotar, används för att utvärdera prestandan hos vår inference algoritm. I både intention inference uppgifter, den föreslagna algoritmen uppnå betydande förbättringar över stöd vektor maskiner och Gaussiska processer.
Wang m.fl. I REF föreslås den avsiktsdrivna dynamiksmodellen, som modellerar mänskliga avsikter som latenta tillstånd i grafisk modell.
3,051,836
Probabilistic movement modeling for intention inference in human–robot interaction
{'venue': None, 'journal': 'The International Journal of Robotics Research', 'mag_field_of_study': ['Computer Science']}
14,907
Abstrakt. I en miljö av ständig förändring, driven av konkurrens och innovation, kan en tjänst sällan förbli stabil - särskilt när det beror på andra tjänster för att uppfylla sin funktionalitet. Men okontrollerade förändringar kan lätt bryta de befintliga relationerna mellan en tjänst och dess miljö (kunder och leverantörer). I detta dokument presenterar vi en strategi som möjliggör en kontrollerad utveckling av en tjänst genom att utnyttja SOA-paradigmets löst kopplade karaktär. Mer specifikt formaliserar vi begreppet kontrakt mellan samverkande tjänster som möjliggör deras oberoende utveckling och vi undersöker under vilka kriterier som kan ändras till en avtalsbunden tjänst, eller till och med till själva kontraktet, vara öppet för miljön i tjänsten.
En metod för kontrollerad utveckling av webbtjänstavtal diskuteras i REF, men utan hänvisning till hur en sådan utveckling påverkar övervakningen av utförandet av tjänsten.
11,464,881
Evolving Services from a Contractual Perspective ⋆
{'venue': 'CAiSE', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Business']}
14,908
I detta dokument presenteras en oövervakad inlärningsmetod för att bygga en icke-engelska (arabiska) stammer. Den härdande modellen är baserad på statistisk maskinöversättning och den använder en engelsk stammer och en liten (10K meningar) parallell corpus som sin enda träningsresurser. Ingen parallell text behövs efter utbildningsfasen. Enspråkig, oannoterad text kan användas för att ytterligare förbättra stammeren genom att göra det möjligt att anpassa sig till en önskad domän eller genre. Exempel och resultat kommer att ges för arabiska, men metoden är tillämplig på alla språk som behöver anbringa avlägsnande. Vår resurs-frugal metod resulterar i 87,5 % överenskommelse med en toppmodern, egenutvecklade arabiska stammer byggd med regler, fästlistor, och mänsklig kommenterad text, utöver en oövervakad komponent. Aktivitetsbaserad utvärdering med hjälp av arabisk informationshämtning indikerar en förbättring med 22-38 % i genomsnittlig precision jämfört med ostämplad text och 96 % av prestandan hos den egenutvecklade stamparen ovan.
REF införde en återlösande modell baserad på statistisk maskinöversättning för arabiska.
8,555,900
Unsupervised Learning Of Arabic Stemming Using A Parallel Corpus
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,909
För att sprida information och idéer genom ett socialt nätverk syftar en såddstrategi till att hitta en liten uppsättning utsädesanvändare som kan maximera spridningen av inflytandet, vilket kallas påverkansmaximeringsproblem. Trots ett stort antal arbeten har man studerat detta problem, men de befintliga utsädesstrategierna är begränsade till de modeller som inte till fullo kan fånga upp de verkliga sociala nätverkens egenskaper. På grund av den snabba dataöverföringen och den stora befolkningen av deltagare har spridningsprocesserna i de verkliga sociala nätverken många aspekter av osäkerhet. Som framgår av experimenten, när man tar hänsyn till sådan osäkerhet, är de toppmoderna såddstrategierna pessimistiska eftersom de inte spårar påverkansspridningen. I detta dokument studerar vi de strategier som väljer ut utsädesanvändare på ett adaptivt sätt. Först modellerar vi formellt den dynamiska oberoende Cascade-modellen och introducerar konceptet adaptiv såddstrategi. Sedan, baserat på den föreslagna modellen, visar vi att en enkel girig adaptiv såddstrategi hittar en effektiv lösning med en påvisbar prestandagaranti. Förutom den giriga algoritmen tillhandahålls en effektiv heuristisk algoritm för bättre skalbarhet. Omfattande experiment har utförts både på de verkliga nätverken och på syntetiska kraftnät. Resultaten häri visar att de adaptiva såningsstrategierna är överlägsna andra baslinjemetoder. Index Terms-Social nätverk inflytande, adaptiv sådd strategi, stokastisk submodulär maximering.
Tong m.fl. REF tar hänsyn till osäkerheten i samhället i verkligheten på grund av dataöverföring med hög hastighet och föreslår en dynamisk oberoende modell för Cascade (DIC) för att fånga upp de dynamiska aspekterna av verkliga sociala nätverk och formellt definiera en anpassningsstrategi för sådd med begreppet såddmönster.
2,299,636
Adaptive Influence Maximization in Dynamic Social Networks
{'venue': 'TNET', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,910
Vi presenterar ett ramverk för effektiv slutledning i strukturerade bildmodeller som uttryckligen resonerar om objekt. Vi uppnår detta genom att utföra probabilistiska slutsatser med hjälp av ett återkommande neuralt nätverk som ägnar sig åt scenelement och bearbetar dem en i taget. I grund och botten lär sig modellen själv att välja rätt antal slutledningssteg. Vi använder detta schema för att lära sig att utföra slutledning i delvis specificerade 2D-modeller (variable-sized variational auto-encoders) och fullt specificerade 3D-modeller (probabilistic renders). Vi visar att sådana modeller lär sig att identifiera flera objekt - räkna, lokalisera och klassificera elementen i en scen - utan någon övervakning, t.ex., sönderdela 3D-bilder med olika antal objekt i ett enda framåtpass av ett neuralt nätverk. Vi visar vidare att nätverken ger exakta slutsatser jämfört med övervakade motparter, och att deras struktur leder till förbättrad generalisering.
Eslami m.fl. REF använder ett återkommande neuralt nätverk för att delta i ett objekt i taget i en scen, och lära sig att använda ett lämpligt antal slutsatser steg för att återställa objekt räknas, identiteter och poser.
8,122,361
Attend, Infer, Repeat: Fast Scene Understanding with Generative Models
{'venue': 'NIPS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,911
Abstrakt. Att tillhandahålla ett naturligt språkgränssnitt till ontologier kommer inte bara att erbjuda vanliga användare bekvämligheten av att skaffa nödvändig information från ontologier, men också utöka inflytandet av ontologier och den semantiska webben följaktligen. Detta dokument presenterar PANTO, en Portable nAtural laNguage inTerface to Ontologies, som accepterar generiska frågor naturligt språk och utgångar SPARQL frågor. Baserat på en särskild hänsyn till nominella fraser, antar det en trippel-baserad datamodell för att tolka parsträd ut av en off-the-shelf parser. Komplexa ändringar i naturligt språk frågor såsom negationer, superlativ och jämförande undersöks. Experimenten har visat att PANTO ger toppmoderna resultat.
Wang, Chong, et al REF har skapat ett Portable naturligt språk gränssnitt till Ontologies, namn som PANTO som accepterar generiska frågor naturligt språk och utgångar SPARQL frågor.
18,080,620
PANTO -- a portable natural language interface to ontologies
{'venue': 'IN: 4TH ESWC, INNSBRUCK', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,912
Utformningen av bra heuristik eller approximationsalgoritmer för NP-hårda kombinatoriska optimeringsproblem kräver ofta betydande specialiserad kunskap och test-och-terror. Kan vi automatisera denna utmanande, tråkiga process och lära oss algoritmerna istället? I många real-world applikationer är det typiskt att samma optimering problem är lösta om och om igen på en regelbunden basis, upprätthålla samma problemstruktur men olika i data. Detta ger en möjlighet att lära sig heuristiska algoritmer som utnyttjar strukturen av sådana återkommande problem. I detta dokument föreslår vi en unik kombination av förstärkande inlärning och diagram inbäddade för att ta itu med denna utmaning. Den lärda giriga politik beter sig som en meta-algoritm som stegvis konstruerar en lösning, och handlingen bestäms av utgången av en graf inbäddning nätverk fånga nuvarande tillstånd av lösningen. Vi visar vårt ramverk kan tillämpas på en mängd olika optimeringsproblem över grafer, och lär sig effektiva algoritmer för minimala Vertex Cover, Maximum Cut och Traveling Salesman problem. Trots den inneboende likheten mellan problemfall som uppstår inom samma område har klassiska algoritmer inte systematiskt utnyttjat detta faktum. Men i industriella sammanhang, ett företag * Båda författarna bidrog lika till papperet. 31:a stycket ska ersättas med följande:
I REF, en unik kombination av förstärkning lärande och graf inbäddning realiseras för att lösa NPhard kombinatorial optimering.
3,486,660
Learning Combinatorial Optimization Algorithms over Graphs
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
14,913
Ett serviceorienterat system består av oberoende programvaruenheter, nämligen tjänster, som interagerar med varandra enbart genom meddelandeutbyten. Ett sådant systems korrekta funktion beror på om varje enskild tjänst beter sig som de andra tjänsterna förväntar sig att den ska bete sig. Eftersom tjänster kan utvecklas och drivas självständigt är det orealistiskt att anta att så alltid är fallet. Den här artikeln tar upp problemet med att kontrollera och kvantifiera hur mycket det faktiska beteendet hos en tjänst, som registrerats i meddelandeloggar, överensstämmer med det förväntade beteendet som anges i en processmodell. Vi anser att det är fallet där det förväntade beteendet definieras med hjälp av branschstandarden BPEL (Business Process Execution Language for Web Services). BPEL-processdefinitioner översätts till Petri-nät och Petri-nätbaserade metoder för kontroll av överensstämmelse används för att härleda två kompletterande indikatorer för överensstämmelse: lämplighet och lämplighet. Metoden har implementerats i en verktygsuppsättning för affärsprocessanalys och gruvdrift, nämligen ProM, och har testats i en miljö som omfattar flera Oracle BPEL-servrar.
Till exempel, i REF överensstämmelse kontroll tekniker tillämpas på meddelandeloggar i Oracle BPEL.
2,414,605
Conformance checking of service behavior
{'venue': 'TOIT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,914
Vetenskapliga artikelrekommendation problem handlar om att rekommendera liknande vetenskapliga artiklar ges en frågeartikel. Det kan kategoriseras som ett innehållsbaserat likhetssystem. Nya framsteg när det gäller metoder för representationsinlärning har visat sig vara effektiva när det gäller att modellera distribuerade representationer i olika former som bilder, språk, tal, nätverk osv. De distribuerade representationer som erhålls med hjälp av sådana tekniker i sin tur kan användas för att beräkna likheter. I detta dokument tar vi upp problemet med rekommendationer i vetenskapliga dokument genom en ny metod som syftar till att kombinera multimodala distribuerade representationer, som i detta fall är: 1. distribuerade representationer av pappersinnehåll, och 2. distribuerad representation av den graf som konstruerats från det bibliografiska nätverket. Genom experiment visar vi att vår metod överträffar de senaste distribuerade representationsmetoderna i text och graf, med 29,6% respektive 20,4%, både vad gäller precision och medelvärde.
Gupta och Varma Ref föreslog en global rekommendationsstrategi för vetenskapliga dokument, som kombinerar distribuerade representationer av grafen som konstruerats från det bibliografiska nätverket och dokumentens innehåll.
2,494,463
Scientific Article Recommendation by using Distributed Representations of Text and Graph
{'venue': 'WWW', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,915
Vi introducerar en ny metod för ansiktsigenkänning från bilduppsättningar. I vår inställning varje test och utbildning exempel är en uppsättning bilder av en individs ansikte, inte bara en enda bild, så erkännande beslut måste baseras på jämförelser av bilduppsättningar. Metoder för detta har två huvudaspekter: de modeller som används för att representera de enskilda bilduppsättningarna och den likhetsmått som används för att jämföra modellerna. Här representerar vi bilder som punkter i ett linjärt eller affint utrymme och karakteriserar varje bild som sätts av en konvex geometrisk region (den affina eller konvexa skrovet) spänns av sina funktionspunkter. Set olikhet mäts med geometriska avstånd (avstånd närmast inflygning) mellan konvexa modeller. För att minska påverkan av outliers använder vi robusta metoder för att kasta ingångar som är långt ifrån den monterade modellen. Kärntricket gör det möjligt att utvidga tillvägagångssättet till implicita funktionskartläggningar och därmed hantera komplexa och icke-linjära grenrör av ansiktsavbildningar. Experiment på två offentliga ansikte dataset visar att våra föreslagna metoder överträffar ett antal befintliga state-of-the-art sådana.
Till exempel föreslog Cevikalp och Triggs REF att modellera bilduppsättningar som täta konvexa geometriska regioner i funktionsutrymmet.
9,189,303
Face recognition based on image sets
{'venue': '2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition', 'journal': '2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
14,916
ABSTRACT Vikten av att extrahera biomedicinsk information från vetenskapliga publikationer är väl erkänd. Ett antal system för informationsextraktion för den biomedicinska domänen har rapporterats, men ingen av dem har blivit allmänt använd i praktiska tillämpningar. De flesta förslag hittills gör ganska förenklade antaganden om den syntaktiska aspekten av naturligt språk. Det finns ett akut behov av ett system som har bred täckning och fungerar bra i real-text applikationer. Resultat: Vi presenterar en allmän biomedicinsk domänorienterad NLP-motor kallad MedScan som effektivt bearbetar meningar från MEDLINE abstracts och producerar en uppsättning legaliserade logiska strukturer som representerar innebörden av varje mening. Motorn använder en speciellt utvecklad kontextfri grammatik och lexikon. Preliminär utvärdering av systemets prestanda, noggrannhet och täckning visade uppmuntrande resultat. Ytterligare metoder för att öka motorns täckning och minska tolkningsmångfald samt dess tillämpning för informationsutvinning diskuteras.
MedScan REF använder en speciellt utvecklad kontextfri grammatik och lexikon designad från Gene Ontology och UMLS.
7,645,893
MedScan, a natural language processing engine for MEDLINE abstracts
{'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Medicine', 'Computer Science']}
14,917
Energiutgifterna har blivit en betydande del av driftskostnaderna för datacenter. Nyligen föreslogs en "geografisk lastbalansering" för att minska energikostnaderna genom att utnyttja skillnaderna i elpriser mellan olika regioner. Denna kostnadsminskning kan emellertid paradoxalt nog öka den totala energianvändningen. I detta dokument undersöks om den geografiska mångfalden av Internetsystem dessutom kan användas för att ge miljövinster. Vi undersöker särskilt om geografisk lastbalansering kan uppmuntra användningen av "grön" förnybar energi och minska användningen av "brun" fossil bränsleenergi. Vi gör två bidrag. Först härleder vi två distribuerade algoritmer för att uppnå optimal geografisk belastningsbalansering. För det andra visar vi att om elen är dynamiskt prissatt i förhållande till den momentana andelen av den totala energi som är brun, då ger geografisk belastningsbalansering betydande minskningar i brun energianvändning. Fördelarna beror dock i hög grad på i vilken utsträckning systemen accepterar dynamisk energiprissättning och vilken form av prissättning som används.
Liu m.fl. REF härledda tre distribuerade algoritmer för att uppnå optimal geografisk belastningsbalansering och visade också att geografisk belastningsbalansering avsevärt kan minska brun energianvändning under särskilda förhållanden.
2,313,729
Greening geographical load balancing
{'venue': "SIGMETRICS '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,918
Abstrakt. Vi studerar problemet med att hitta en exakt lösning på problemet med halvering av samförståndet. Även om det senaste arbetet har visat att den ungefärliga versionen av detta problem är PPA-komplett [28,27], visar vi att den exakta versionen är mycket svårare. Särskilt, hitta en lösning med n skärningar är FIXPhard, och avgöra om det finns en lösning med färre än n skärningar är ETR-fullständig. Vi ger också en QPTAS för fallet där varje agent värdering är ett polynom. Längs vägen definierar vi en ny komplexitetsklass BU, som fångar alla problem som kan reduceras till att lösa ett fall av Borsuk-Ulam-problemet exakt. Vi visar att FIXP och BU TFETR och att LinearBU = PPA, där LinearBU är den underklass av BU där Borsuk-Ulam instansen specificeras av en linjär aritmetisk krets.
Nyligen, REF studerade komplexiteten i exakt Consensus-Halving och visade att problemet är FIXP-hård.
71,145,142
Computing Exact Solutions of Consensus Halving and the Borsuk-Ulam Theorem
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
14,919
Vi föreslår en ny stokastisk L-BFGS-algoritm och visar en linjär konvergenshastighet för starkt konvexa och smidiga funktioner. Vår algoritm drar kraftigt från en nyligen stokastisk variant av L-BFGS föreslås i Byrd et al. (2014) samt ett nyligen tillvägagångssätt för variansreduktion för stokastisk lutning nedstigning från Johnson och Zhang (2013). Vi demonstrerar experimentellt att vår algoritm presterar bra på storskaliga konvexa och icke-konvexa optimeringsproblem, uppvisar linjär konvergens och snabbt löser optimeringsproblemen till höga precisionsnivåer. Dessutom visar vi att vår algoritm presterar bra för ett brett utbud av stegstorlekar, ofta olika av flera storleksordningar.
En linjärt konvergent stokastisk L-BFGS-metod med variansreduktion diskuteras i REF.
2,922,143
A Linearly-Convergent Stochastic L-BFGS Algorithm
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
14,920
Recommender Systems (RS) spelar en viktig roll i tillämpningar som e-handel och streaming av innehåll på begäran. Forskningen om RS har främst fokuserat på kundperspektivet, d.v.s. exakt förutsägelse av användarpreferenser och maximering av användarverktyg. Som ett resultat, de flesta befintliga tekniker är inte uttryckligen byggd för intäktsmaximering, det primära affärsmål företag. I detta arbete utforskar och utnyttjar vi en ny koppling mellan RS och lönsamheten i ett företag. Eftersom rekommendationer kan ses som en informationskanal mellan ett företag och dess kunder är det intressant och viktigt att undersöka hur man gör strategiska dynamiska rekommendationer som leder till största möjliga intäkter. I detta syfte föreslår vi en ny intäktsmodell som tar hänsyn till en rad olika faktorer, inklusive priser, värderingar, mättnadseffekter och konkurrens mellan produkter. Enligt denna modell studerar vi problemet med att hitta intäktsmaximerande rekommendationsstrategier över en ändlig tidshorisont. Vi visar att detta problem är NP-hård, men approximation garantier kan erhållas för en något avslappnad version, genom att upprätta en elegant anslutning till matroid teori. Med tanke på den oöverkomligt höga komplexiteten hos approximationsalgoritmen, designar vi också intelligenta heuristiker för det ursprungliga problemet. Slutligen genomför vi omfattande experiment på två verkliga och syntetiska dataset och visar effektiviteten, skalbarheten och effektiviteten våra algoritmer, och att de avsevärt överträffar flera intuitiva baslinjer.
En av dessa är skapandet av dynamiska rekommendationer för maximering av intäktsreferensen som tar hänsyn till en rad olika faktorer, inklusive priser, värdering, mättnadseffekt och konkurrens mellan olika produkter.
3,485,119
Show Me the Money: Dynamic Recommendations for Revenue Maximization
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
14,921
Detta papper tar upp utmaningen av 3D fullkropp människa pose uppskattning från en monocular bildsekvens. Här beaktas två fall: i) bildplatserna för de mänskliga lederna anges och ii) bildplatserna för lederna är okända. I det förra fallet införs ett nytt tillvägagångssätt som integrerar en gleshetsdriven geometrisk 3D-föregångs- och temporal jämnhet. I det senare fallet utvidgas det tidigare fallet genom att man behandlar ledernas bildplatser som latenta variabler för att ta hänsyn till betydande osäkerheter i 2D-lederna. Ett djupt konvolutionsnätverk utbildas för att förutsäga osäkerhetskartorna för de tvådimensionella gemensamma platserna. Den 3D pose uppskattningar realiseras via en Förväntning-Maximering algoritm över hela sekvensen, där det visas att 2D gemensamma läge osäkerheter kan enkelt marginaliseras ut under inference. Empirisk utvärdering av datasetet Human3.6M visar att de föreslagna tillvägagångssätten uppnår större noggrannhet i 3D-uppskattningen jämfört med de senaste baslinjerna. Det föreslagna tillvägagångssättet överträffar dessutom ett offentligt tillgängligt 2D-värde som ger en uppskattningsgrund för det utmanande PennAction-datasetet.
Zhou m.fl. REF tar itu med problemet med 3D utgör estimering för en monokulär bildsekvens som integrerar 2D-, 3D- och tidsinformation för att ta hänsyn till osäkerheter i modellen och mätningarna.
206,594,509
Sparseness Meets Deepness: 3D Human Pose Estimation from Monocular Video
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
14,922
Vi betraktar problemet med topologiigenkänning i trådlösa (radio) nätverk som modellerade som oriktade grafer. Topologiigenkänning är en grundläggande uppgift där varje nod i nätverket måste mata ut en karta över den underliggande grafen, d.v.s. en isomorfisk kopia av den, och placera sig i denna karta. I trådlösa nätverk kommunicerar noderna i synkrona rundor. I varje omgång kan en nod antingen sända ett budskap till alla sina grannar, eller hålla tyst och lyssna. I det mottagande slutet, en nod v hör ett meddelande från en granne w i en given runda, om v lyssnar i denna runda, och om w är dess enda granne som sänder i denna runda. Noder har etiketter som är (inte nödvändigtvis olika) binära strängar. Längden på ett märkningssystem är den största längden på en etikett. Vi koncentrerar oss på trådlösa nätverk modellerade av träd, och vi undersöker två problem. • Vad är det kortaste märkningsschemat som tillåter topologiigenkänning i alla trådlösa trädnätverk med diameter D och maximal grad? • Vad är den snabbaste topologiigenkänningsalgoritmen som fungerar för alla trådlösa trädnätverk av diameter D och maximal grad, med hjälp av ett så kort märkningssystem? Vi är intresserade av deterministiska topologiigenkänningsalgoritmer. För det första problemet, visar vi att den minsta längden av ett märkningssystem som tillåter topologi erkännande i alla träd av maximal grad på ≥ 3 är på (logglogg på). För sådana korta scheman, som används av en algoritm som arbetar för klassen av träd med diametern D ≥ 4 och maximal grad på ≥ 3, visar vi nästan matchande gränser på tiden för topologiigenkänning: en övre gräns för O (D) och en nedre gräns för och en lägre gräns (D) för varje konstant < 1. Våra övre gränser bevisas genom att konstruera en topologiigenkänningsalgoritm med hjälp av ett märkningsschema för längd O(log log på) och med tid O(D). Våra nedre gränser bevisas genom att bygga en klass av träd för vilka någon topologiigenkänningsalgoritm måste använda ett märkningsschema av längd minst och en klass av träd för vilka någon topologiigenkänningsalgoritm med hjälp av ett märkningsschema av längd O(logglogglogg) måste använda tid minst och åtminstone och (D) på något träd i denna klass.
I REF ansåg författarna problemet med topologiigenkänning i trådlösa träd utan kollisionsdetektering.
13,918,635
Short Labeling Schemes for Topology Recognition in Wireless Tree Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
14,923
Abstract-Vi presenterar ett tillvägagångssätt som kombinerar semantiska metadata och resonemang med ett visuellt modelleringsverktyg för att möjliggöra målstyrd konfiguration av smarta miljöer för slutanvändare. I motsats till processdrivna system där servicemashups är statiskt definierade använder sig detta tillvägagångssätt av inbäddade semantiska API-beskrivningar för att dynamiskt skapa mashups som uppfyller användarens mål. Den största fördelen med det presenterade systemet är dess höga grad av flexibilitet, eftersom service mashups kan anpassas till dynamiska miljöer och är feltoleranta när det gäller enskilda tjänster som blir otillgängliga. För att hjälpa slutanvändare att uttrycka sina mål har vi integrerat ett visuellt programmeringsverktyg med vårt system. Detta verktyg gör det möjligt för användare att modellera det önskade tillståndet i sin smarta miljö grafiskt och därmed döljer teknikaliteterna i den underliggande semantiken och resonemanget. Möjliga tillämpningar av det presenterade systemet inkluderar konfigurationen av smarta hem för att öka individuellt välbefinnande, och omkonfigureringar av smarta miljöer, till exempel inom industriell automation eller hälso- och sjukvård domäner.
Mayer m.fl. REF presenterar ett tillvägagångssätt som kombinerar semantiska metadata och resonemang med ett visuellt modelleringsverktyg för att möjliggöra målstyrd konfiguration av smarta miljöer.
1,704,476
Configuration of smart environments made simple: Combining visual modeling with semantic metadata and reasoning
{'venue': '2014 International Conference on the Internet of Things (IOT)', 'journal': '2014 International Conference on the Internet of Things (IOT)', 'mag_field_of_study': ['Computer Science']}
14,924
Sammanfattning Vi får följande resultat relaterade till dynamiska versioner av de kortastepaterna problem: (i) Minskningar som visar att de inkrementella och decrementala single-source kortaste-pates problem, för viktade riktade eller oriktade grafer, är, i en stark mening, minst lika svårt som de statiska alla-par kortaste-pates problem. Vi får också något svagare resultat för motsvarande oviktade problem. (ii) En randomiserad fullt dynamisk algoritm för de alla-par kortaste-paterna problem i riktade oviktade grafer med en amorterad uppdateringstid på Õ(m ε n) (vi använder Õ för att dölja små poly-logaritmiska faktorer) och en värsta fall frågetid är O(n 3/4 ). iii) En deterministisk O(n 2 log n) tidsalgoritm för att konstruera en O(log n)-spanner med O(n) kanter för viktad oriktad graf på n hörn. Algoritmen använder en enkel algoritm för att stegvis underhålla en källa kortaste-sökvägar träd upp till ett visst avstånd.
Roditty och Zwick Ref överväga de inkrementella och decrementala versionerna av den enda källan kortaste vägen problem i viktade och oviktade riktade grafer.
15,475,535
On Dynamic Shortest Paths Problems
{'venue': 'Algorithmica', 'journal': 'Algorithmica', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
14,925
Vi anser här problemet med Base Noun Frase översättning. Vi föreslår en ny metod för att utföra uppgiften. För en given bas NP söker vi först sina översättningskandidater från webben. Vi bestämmer sedan de möjliga översättning(ar) från bland kandidaterna med hjälp av en av de två metoder som vi har utvecklat. I en metod använder vi en ensemble av Naïve Bayesian Classifiers byggda med EM Algorithm. I den andra metoden använder vi TF-IDF-vektorer som även konstruerats med EM Algorithm. Experimentella resultat visar att täckningen och noggrannheten hos vår metod är betydligt bättre än för basmetoderna som bygger på befintlig teknik.
Cao och Li REF föreslog en ordlista-baserad översättning kombinationsmetod för att samla översättningskandidater av engelska substantiv fraser, och sedan använde en naiv Bayesian klassificerare och TF-IDF vektor konstruerad med EM algoritm som utvärderingskriterium för översättning val.
8,237,612
Base Noun Phrase Translation Using Web Data And The EM Algorithm
{'venue': 'International Conference On Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,926
Det trådlösa mediet innehåller domänspecifik information som kan användas för att komplettera och förbättra traditionella säkerhetsmekanismer. I detta dokument föreslår vi sätt att utnyttja det faktum att radiokanalsvaret, i en typiskt rik spridningsmiljö, ganska snabbt i rymden. Specifikt beskriver vi en fysisk-lager algoritm som kombinerar kanal undersökning (M komplexa frekvenssvar prover över en bandbredd W ) med hypotes testning för att avgöra om aktuella och tidigare kommunikationsförsök görs av samma användare (samma kanal svar). På så sätt kan legitima användare vara tillförlitligt autentiserade och falska användare kan på ett tillförlitligt sätt upptäckas. För att utvärdera genomförbarheten av vår algoritm simulerar vi rumsligt variabla kanalsvar i verkliga miljöer med hjälp av WiSE ray-tracing-verktyget; och vi analyserar en mottagares förmåga att diskriminera mellan sändare (användare) baserat på deras kanalfrekvenssvar i en given kontorsmiljö. För flera rum i de yttersta delarna av byggnaden vi övervägt, har vi bekräftat effektiviteten i vår strategi under statiska kanalförhållanden. Till exempel, mätning av fem frekvenssvarsprover över en bandbredd på 100 MHz och med en sändningseffekt på 100 mW, kan giltiga användare verifieras med 99% förtroende samtidigt avvisa falska användare med mer än 95% förtroende.
Baserat på det faktum att trådlös kanal respons dekorerar ganska snabbt i rymden, ett kanalbaserat autentiseringssystem föreslogs för att diskriminera mellan sändare på olika platser, och därmed för att upptäcka spoofing attacker i trådlösa nätverk REF.
7,575,721
Fingerprints in the Ether: Using the Physical Layer for Wireless Authentication
{'venue': 'ICC, pp. 4646-4651, Glasgow, Scotland, Jun. 2007', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,927
Vi utgår från att evenemang av intresse äger rum på diskreta platser i rum och tid inom ett visst område. Om dessa händelser kommer från en viss distribution, som kan vara godtyckligt komplex, bör sensorerna flytta så att deras positioner så småningom kommer att approximera denna distribution. Dessutom vill vi minimera mängden necesMånga sensornätverk har mycket fler enheter än vad som krävs för enkel täckning. Sensorrörlighet ger bättre täckning i områden där händelser inträffar ofta. De distribuerade system som presenteras här använder minimal kommunikation och beräkning för att tillhandahålla denna kapacitet. Dartmouth College sary beräkning, minne och kommunikation, medan fortfarande utveckla distribuerade algoritmer. Varje sensor måste därför approximera händelsefördelningen och positionera sig korrekt med avseende på den. I synnerhet, för skalbarhet, vi inte överväga strategier där varje sensor upprätthåller antingen hela händelsehistoriken eller platserna för alla andra sensorer. Vi antar att åtminstone en sensor kan känna av varje händelse och sända händelsen plats till de andra sensorerna, så att varje sensor lär sig om varje händelse plats. (Vi betraktar inte den särskilda mekanismen för denna sändning i denna artikel.) Om den ursprungliga fördelningen är enhetlig, antingen slumpmässig eller regelbunden, då sensorerna kan röra sig på grundval av händelserna utan att uttryckligen samarbeta med sina grannar. De två rörelsekontrollalgoritmer som vi presenterar här använder båda denna observation, men de skiljer sig åt i hur mycket lagring de använder för att representera historien om avkännda händelser. I denna klass av rörelsekontrollalgoritmer upprätthåller sensorerna ingen händelsehistorik. Detta tillvägagångssätt liknar den potentiella fältet metoder i formation kontroll och täckning arbete, 1 som använder andra robotars nuvarande positioner för att bestämma rörelse. Den största skillnaden är att vår strategi tar hänsyn till händelser, snarare än grannar, positioner. Denna teknik är tilltalande på grund av sin enkla natur och minimala beräkningskrav. Här låter vi varje sensor att reagera på en händelse genom att flytta enligt en funktion av formen, Där e k är position händelse k, och hänvisar till positionen för sensor i efter händelse k. Formen av funktion f i denna ekvation är den viktiga komponenten i denna strategi. Till exempel, en enkel kandidat funktion,, Som behandlar positioner som vektor storheter, orsakar sensorn att gå mot händelsen en kort sträcka i proportion till hur långt det är från händelsen. Även om,, PERVASIV computing 35 P vördnadsfullt arbete i sensornätverk har inspirerat detta arbete. Vi har byggt på vårt eget arbete med routing i ad hoc-nätverk 1 och reaktiva sensornätverk. 2 Vi har också byggt på viktiga bidrag från andra grupper. [3] [4] [5] Massivt distribuerade sensornätverk håller på att bli verklighet, till stor del på grund av tillgången på Mote-hårdvara. 6 Alberto Cerpa och Deborah Estrin föreslår en adaptiv självkonfigurerande sensor nätverk topologi där sensorer kan välja om att gå med i nätverket på grundval av nätverkets tillstånd, förlusthastighet, anslutning, och så vidare. 7 Sensorerna rör sig inte, men nätverkets övergripande struktur anpassar sig genom att få sensorerna att aktivera eller avaktivera. Vårt arbete undersöker mobilsensorstyrning med målet att använda redundans för att förbättra avkänning snarare än att optimera strömförbrukningen. Forskare har först nyligen börjat studera mobilsensornätverk. Gabriel Sibley, Mohammad Rahimi, och Gaurav Sukhatme beskriver tillägg av rörelse till Mote sensorer, skapa Robomotes. 8 Algoritmiskt arbete fokuserar främst på att jämnt sprida sensorer från en källpunkt och omfördela dem för nätverksombyggnad, 9,10 snarare än att samla dem i intresseområden. Relaterade arbeten av Jorge Cortes och hans kollegor 11 använder Voronoi metoder för att ordna mobila sensorer i synnerhet distributioner, men på ett analytiskt sätt som kräver att distributionerna i förväg. Vårt arbete fokuserar på distribuerade reaktiva algoritmer för konvergens till okända distributioner – en uppgift som forskare inte tidigare har studerat. Vi kan identifiera flera användbara egenskaper för f. Först, efter en händelse, bör sensorn aldrig gå förbi den händelsen. För det andra, sensorernas rörelse bör tendera till 0 som händelsen blir längre bort, så att sensorerna kan separera sig i flera kluster när händelserna också samlas. Slutligen är det rimligt att förvänta sig att uppdateringen ska vara monoton; ingen sensor bör gå förbi en annan längs samma vektor som svar på samma händelse. Ett sätt att begränsa uppdateringsfunktionen är att införa ett beroende av avståndet d mellan sensorn och händelsen, och sedan alltid flytta sensorn direkt mot händelsen. Vi kan säkerställa önskat beteende, med hjälp av dessa tre kriterier: En enkel funktion som uppfyller dessa kriterier är f(d) = de -d (där e här hänvisar till konstant 2.718..., inte en händelse). Vi kan också använda andra funktioner i familjen f(d) = αd β e -γd för värden av parametrarna α, β och γ så att αe -γd (βd β-1 -γd β ) > 1 och d. Vi har implementerat simuleringar med hjälp av flera funktioner i denna familj som uppdateringsregler, och figur 1 visar resultaten av att använda denna teknik (med α = 0,06, β = 3, γ = 1). För denna särskilda funktionsfamilj kan parametrarna förändras över ett brett spektrum och ändå ge relativt rimliga resultat, som skiljer sig åt i deras konvergenshastighet (främst beroende av α) och i den region där en grupp händelser påverkar varandra (beroende på β och γ). Den föregående algoritmen behöver endast minimal information. Den resulterande sensorplaceringen är godtagbar för många applikationer, men med en liten mängd ytterligare information kan vi förbättra den. Här utforskar vi fördelarna med att upprätthålla händelsehistoriken för att förbättra sensorernas approximation av händelsedistributionen. Sensorerna kan använda historik vid varje uppdatering för att fatta mer välgrundade beslut om vart de ska gå vid varje steg. Att låta dem bygga en omvandling av det underliggande utrymmet till ett utrymme som matchar händelsedistributionen gör detta möjligt. För att begränsa mängden nödvändigt minne, håller denna algoritm inte platsen för varje händelse. I stället tjänar en grov histogram över utrymmet till att fixa minnesanvändning i förväg. En endimensionell algoritm. Det enklaste ögonblicket för detta begrepp är i en dimension. 1D-händelsedistributioner kan möjliggöra kartläggning för många tillämpningar – till exempel övervakning av vägar, rörledningar eller annan infrastruktur. Här är det omvandlade utrymmet helt enkelt en kartläggning med hjälp av händelsernas kumulativa fördelningsfunktion. För att bestämma dess korrekta position behåller varje sensor en diskret version av CDF, som uppdateras efter varje händelse. Vi skala CDF på grundval av antalet händelser och längd l av det specifika intervallet, så att CDF(l) = l. Vi associerar sedan varje segment av CDF med ett proportionellt antal sensorer så att sensorns densitet spår händelsen densitet. Eftersom sensorerna inledningsvis är jämnt fördelade kan vi åstadkomma detta genom att kartlägga varje CDF-segment till ett proportionellt intervall av sensorernas initiala positioner. Varje givare beräknar sitt korrekta omvandlade läge på grundval av CDF:s omvänt, utvärderat vid sitt ursprungliga läge. Med andra ord väljer en sensor den nya positionen så att CDF i detta läge returnerar sitt ursprungliga läge. Algoritmen i figur 2 beskriver denna process. Denna algoritm producerar en ungefär korrekt fördelning av sensorer eftersom antalet sensorer som kartlägger deras nuvarande position i det ursprungliga x-axeln intervallet är proportionell mot händelsetätheten i det intervallet. Dessutom säkerställer kartläggningen att en sensor som startar vid en given del av vägen längs intervallet rör sig så att den behåller samma del av händelserna till vänster. Dessutom, eftersom CDF är monoton, ingen sensor kommer att passera en annan när reagerar på en händelse. En tvådimensionell algoritm. Även om 1D-algoritmen har vissa potentiella praktiska tillämpningar finns det många andra övervakningstillämpningar över planara domäner, till exempel övervakning av skogsbränder. Vi kan dock utöka 1D-algoritmen genom att bygga ett 2D-histogram av händelserna och använda det för att omvandla utrymmet på liknande sätt. Efter varje händelse, varje sensor uppdaterar det omvandlade utrymmet på grundval av händelsen position och bestämmer sin nya position genom att lösa en uppsättning av 1D problem med hjälp av algoritmen i Figur 2. När en händelse inträffar uppdaterar varje sensor sin representation av händelserna. Detta är detsamma som att öka den lämpliga bin av en händelse histogram, även om sensorerna inte representerar histogrammet explicit. I stället behåller varje sensor två uppsättningar CDF, en uppsättning för varje axel. Det vill säga, för varje rad eller kolumn i 2D-histogrammet upprätthåller sensorn en CDF, skalad som i 1D-algoritmen. Vi använder denna representation snarare än en enda 2D CDF, där varje bin skulle representera antalet händelser nedan och till vänster, eftersom denna senare formulering skulle framkalla oönskat beroende mellan axlarna. I en enda 2D CDF, händelser som inträffar i två kluster, såsom i Figur 1b, skulle inducera en tredje kluster av sensorer i övre högra. När sensorn har uppdaterat sin datastruktur söker den efter rätt position. För att göra detta utför den en rad interpolationer som i 1D-algoritmen. För varje CDF i linje med x-axeln finner sensorn värdet som motsvarar dess initiala x-koordinat, och likaså för y-axeln. Detta skapar två uppsättningar av punkter, som kan ses som två kedjor av linjesegment: en går över arbetsytan (en funktion av x) och en som är en funktion av y. Vi kan också se dessa kedjor som en konstant höjdkontur över den yta som definieras av CDF. För att bestämma dess nästa position letar en sensor efter en plats där dessa två segmentkedjor skär varandra. Med tanke på typen av dessa kedjors konstruktion är det dock möjligt med mer än en sådan plats. Så, vår algoritm styr sensorn att gå till skärningspunkten närmast sin nuvarande position. Detta är något heuristiskt men är utformat för att begränsa den mängd rörelse som krävs, och i praktiken verkar det ge goda resultat. Figur 3 visar typiska resultat, liknande dem för andra händelsefördelningar. Eftersom denna algoritm uppdaterar endast en bin av histogrammet, är den beräkning som krävs för CDF-uppdateringen låg, vilket motsvarar två 1D-beräkningar, och tiden för positionsberäkningen är proportionell mot histogrammets bredd. Dessutom, algoritmen har den användbara egenskapen att två sensorer som inte först collokerade inte kommer att försöka flytta till samma punkt. Toryfria algoritmer som presenterats tidigare, kommer denna teknik korrekt producera en enhetlig fördelning av sensorer, med tanke på en enhetlig fördelning av händelser, eftersom varje CDF kommer att vara linjär, och den ursprungliga positionens kartläggning till den aktuella positionen kommer att vara identiteten. De föregående algoritmerna antar implicit att varje sensor vet sin nuvarande position och kan flytta exakt till önskad position när som helst. Här beskriver vi kortfattat effekterna av att slappna av detta antagande. Intuitivt, vi förväntar oss att eftersom dessa metoder förlitar sig på många sensorer i en distribution, kommer icke-systematiska fel tenderar att inte partiska den resulterande sensorfördelningen. Till exempel, om varje sensor har en liten Gaussian fel i sin upplevda ursprungliga läge, den upplevda ursprungliga fördelningen kommer fortfarande att vara nära jämnt slumpmässigt (i själva verket kommer det att vara konvolution av den enhetliga fördelningen med Gaussian). På liknande sätt, om händelseavkänning är föremål för fel, kommer sensorerna att konvergera mot en distribution som är den sanna felfördelningen i förening med avkänningsfelets fördelning. När sensorerna rör sig under våra algoritmers kontroll ökar situationens komplexitet något. Om vi föreställer oss varje sensor som en Gaussian blob runt dess sanna position, och varje rörelse i sensorn framkallar ytterligare osäkerhet, sensorns sanna position kommer att vara en convolution av dessa två fördelningar. Med tiden förväntar vi oss att den resulterande sensordistributionen blir en utjämnad version av den avsedda distributionen. Detta gäller även för både de historiefria och de historiebaserade algoritmerna. Även om den senare endast använder den ursprungliga positionen för att beräkna den avsedda positionen, medan den förra endast använder den aktuella positionen, bör positionsfelet ackumuleras på samma sätt (förutsatt att varje position är korrekt). En skillnad är att den historiebaserade algoritmen kan innebära mer sensorrörelse och därför mer möjlighet att ackumulera fel. För att undersöka denna intuition empiriskt inkluderade vi bullermodeller för initialpositions- och rörelsefel i Matlabs simuleringar. Initial-position buller är Gaussian, medan vi modellerar rörelsefel som en tillagd 2D Gaussian buller vars varians är proportionell mot det förflyttade avståndet. Figur 4 visar typiska resultat, med samma uppsättning initiala positioner och händelser, som körs med och utan buller. Nu utökar vi den händelsestyrda kontrollen av sensorplaceringen till att omfatta täckning av miljön. Under de algoritmer som hittills presenterats, sensornätverk kan förlora nätverksanslutning eller sensor täckning av sin miljö. Förmågan att upprätthålla denna typ av täckning samtidigt som den fortfarande reagerar på händelser är en viktig praktisk begränsning eftersom den kan garantera att nätverket förblir ansluten och övervakar hela utrymmet. På så sätt kan nätverket fortfarande upptäcka och reagera på nya händelser som förekommer i för närvarande "tysta" områden. Vi antar att varje sensor har ett begränsat kommunikations- och avkänningsområde, och åtminstone en sensor bör känna varje punkt i miljön. Varje sensor rör sig för att upprätthålla täckningen, eller, om det inte krävs för täckning, följer händelsefördelningen exakt. Detta är liknande till utrymme-fyllning täckning metoder, liksom de som använder potentiella fält. 1 I dessa metoder, varje robot flyttar från sina kollegor för att producera ett regelbundet mönster i utrymmet och därmed fullständig täckning. Du kan utöka dessa rymdfyllningsmetoder till det variabla distributionsfallet genom att ändra de potentiella fältstyrkorna på grundval av händelsefördelningen. I vårt arbete följer sensorerna dock händelsefördelningen exakt tills den behövs för täckning. De kan på så sätt uppnå en god approximering av fördelningen i områden med hög densitet och god täckning i områden med låg densitet. Denna växlingsteknik förenklar också förutsägelsen av andra sensorers rörelser. Kom ihåg att i både den historia-fria och den historia-baserade algoritmer, varje sensor rör sig enligt en enkel känd kontrollfunktion. Varje sensor kan därför förutsäga andra sensorers rörelse och använda denna information för att upprätthålla tillräcklig täckning. Förutsägelse av andra sensorpositioner kräver ytterligare beräkning, vilket kan vara betydande om uppdateringsalgoritmen är komplex eller det finns många sensorer att spåra. Vi kan undvika denna beräkning genom att använda kommunikation där varje sensor sänder sin position till närliggande sensorer. Men mer kommunikation har också potentiella nackdelar när det gäller energianvändningen. Här presenterar vi tre olika metoder för att upprätthålla täckning som använder olika mängder av kommunikation och beräkning, och vi jämför deras prestanda. Varje algoritm kan arbeta med antingen de historikfria eller de historikbaserade rörelsekontrollalgoritmerna. Den första algoritmen vi beskriver använder kommunikation för att säkerställa täckning. Enligt detta protokoll, varje sensor upprätthåller ett cirkulärt område av intresse runt sin nuvarande position, och försöker hålla det området spännt av andra sensorer. Detta förutsätter underförstått att varje apparats kommunikations- och avkänningsområde är cirkulärt. Beroende på uppgiften kan areastorleken relatera till antingen enhetens kommunikationsområde eller sensorområde. Efter varje händelse sänder varje sensor sin nya position till sina grannar för att underlätta täckningen. Eftersom denna information är användbar endast för sensorerna i sändningssensorns område, sprider sig inte positionsmeddelandet, så detta system är skalbart för stora nätverk. För att säkerställa att täckningen är komplett, efter varje händelse, undersöker varje sensor platserna för sensorerna i sitt grannskap. Om någon halvcirkel inom sitt intresseområde är tom, ingen granne täcker en del av det området. Detta tyder på en potentiell förlust av täckning. Figur 5 ger algoritmen för att upptäcka tomma halvcirklar, och tabell 1 listar algoritmens egenskaper. När sensorn har lärt sig sina grannars positioner, beräknar den den relativa vinkeln till varje granne. Sensorn sorterar sedan dessa vinklar; varje gap mellan grannar lika med π eller större indikerar en tom halvcirkel. En tom halvcirkel inom en sensors intresseområde indikerar potentiell förlust av täckning. När sensorn hittar ett sådant tomt område måste den använda en lämplig strategi för att säkerställa täckning. Det första alternativet är helt enkelt att förbli fast på sin nuvarande position. Det andra alternativet är att flytta ett litet avstånd mot mitten av den öppna halvcirkeln. Avståndet bör vara tillräckligt litet så att inga andra grannar flyttar utanför området. Detta senare alternativ tillåter jämnare täckning men gör det mycket dyrare att förutsäga andra sensorers positioner, så detta alternativ är oförenligt med de prediktiva metoder som beskrivs härnäst. Denna reaktiva metod för att säkerställa täckning är tilltalande eftersom den kräver lite extra beräkning och fortfarande är skalbar. Det är dock begränsat eftersom det endast beaktar de sensorer som ligger inom dess kommunikationsområde, Rc. Nu beskriver vi ett sätt att säkerställa täckning baserat på att förutsäga andra sensorers positioner. Denna metod innebär att bygga Voronoi diagram för att avgöra om fullständig täckning finns. (En Voronoi diagram delar ett plan i regioner, var och en bestående av punkter närmare en given sensor än någon annan sensor.) Detta tillvägagångssätt minskar den dubbla täckningen på bekostnad av den ytterligare beräkning som krävs för att beräkna Voronoi-diagrammet. Vi antar att varje sensor vet sin ursprungliga position. I algoritmens initialiseringsfas sänder varje sensor ut den här positionen och låter alla andra sensorer spåra den sensorns position. Detta protokoll har tre versioner, baserat på den mängd beräkning som varje sensor måste utföra. Det mest beräkningsintensiva prediktiva protokollet är inte skalbart; vi presenterar det här som ett riktmärke för jämförelse. I komplett-Voronoi protokollet, varje sensor beräknar varje annan sensor rörelse och använder detta för att beräkna sin Voronoi region efter varje händelse. Detta säkerställer bästa prestanda eftersom varje sensor vet exakt vilket område den bör överväga för täckning. Om någon del av sensorns Voronoi region är längre bort än R s, sensorn vet att ingen annan sensor är närmare denna punkt och att det inte bör gå bort från denna punkt. (Detektorn behöver bara kontrollera regionens hörn, eftersom regionen alltid är polygonal.) Så länge sensorn behåller sin 1: för varje granne position (x j, y j ) gör 2: Tom yta finns, hantera som i text TABLE 1 Egenskaper för den kommunikationsbaserade algoritmen (där s är det totala antalet sensorer i nätverket, n är en sensor antal grannar, och O är standard komplexitetsmåttet). Fastighetsvärde Kommunikation O(n log n) Maximalt utbud av granne kunskap Kommunikationsradie; benägna att dubbel täckning Anslutningsgaranti Voronoi regionen på detta sätt, övergripande täckning fortsätter. Figur 6 visar ett typiskt resultat av denna teknik. Sensorernas Voronoidiagram visar ingen region större än R s = 3 enheter från varje sensors centrum. Att utföra denna förutsägelse på rätt sätt innebär ett rekursivt problem: När en sensor har stannat lyder den inte längre den prediktiva regeln. För att en sensor exakt ska kunna förutsäga nätverkets tillstånd måste den också veta vilka sensorer som har stannat. Detta kan ske på två sätt. Om vi inte önskar någon ytterligare kommunikation, kan varje sensor förutsäga om andra sensorer kommer att stanna på grundval av samma Voronoi region beräkning. Detta är dock en mycket stor beräkning, och vi kan enkelt undvika den med bara lite kommunikation. När en sensor stannar för att undvika täckningsförlust, skickar den ett sändningsmeddelande med den position där den stannade. Andra sensorer kan då anta anslutning till den underliggande rörelsealgoritmen om de inte får ett sådant meddelande. Eftersom varje sensor bara stannar en gång, krävs endast O(s) sändningar över uppgiftens längd, snarare än s per händelse. Tabell 2 visar egenskaperna hos den kompletta Voronoi-algoritmen utan och med kommunikation. Med hjälp av kompletta-Voronoi diagram kräver betydande beräkning, både för att spåra alla sensorer i nätverket och för att beräkna själva diagrammet. Ett skalbart prediktivt protokoll, den lokala Voronoi algoritmen avlöser en liten täckning noggrannhet för en stor minskning av beräkning. Efter initiering där alla sensorer upptäcker placeringen av alla andra sensorer, beräknar varje sensor sin Voronoi region. När uppgiften fortskrider, varje sensor spårar bara de sensorer som var dess grannar i den ursprungliga konfigurationen. Därefter beräknas dess Voronoi region efter varje händelse på grundval av endast denna delmängd. Därefter granskas dess Voronoi-region på samma sätt som i det fullständiga Voronoi-protokollet för att avgöra om täckningen ska upphöra. Tabell 3 listar algoritmens egenskaper. Så länge grannrelationerna förblir ganska konstant, kan den lokala-Voronoi algoritmen producera resultat som liknar dem för den kompletta-Voronoi algoritmen. Dessutom, den lokala-Voronoi algoritmen gör sensorer mer konservativ om täckning än den fullständiga algoritmen, eftersom den beräknade Voronoi regionen är baserad på en delmängd av de sanna grannarna och så kan bara vara större än den verkliga regionen. När rörelsen är liten eller i allmänhet i en enda riktning, grannrelationerna förblir ganska konstant. Om rörelsen är stor eller närliggande sensorer rör sig i olika riktningar, kan grannrelationerna förändras. I det senare fallet kan vi ändra algoritmen något genom att upprepa initieringssteget med jämna mellanrum. Detta låter sensorerna upptäcka sitt nya område, förbättra algoritmens noggrannhet samtidigt som den begränsar kommunikationen. För att jämföra nyttan av dessa olika protokoll har vi genomfört empiriska I de prediktiva algoritmerna beror beräkningsbeloppet på vilken uppdateringsregel som används. Tabell 4 visar den faktiska beräkningsmängd som används i Matlabs simuleringar för varje algoritm. Skillnaden mellan de två sista algoritmerna i tabell 1 (nämligen användningen av enstaka uppdateringar av global positionering) återspeglas endast delvis i kolumnerna för kommunikation och beräkning. Tydligt, de periodiska uppdateringarna kräver ytterligare kommunikation, men fördelen med att använda denna algoritm är att täckning upptäckt är mer exakt. Vi kan använda antalet fasta sensorer som ett mått för att jämföra algoritmerna. De högra kolumnerna i tabell 1 anger antalet sensorer som de olika algoritmerna kräver för täckning under tre olika händelsefördelningar. Eftersom täckningen var komplett i alla fall, ju mindre antalet här (vilket innebär att färre sensorer krävs), desto bättre. Detta visar att det ständiga bruket av ursprungliga grannar är ineffektivt. Periodiska uppdateringar av grannskapet kan ge resultat som är nästan lika exakta som för den kompletta algoritmen samtidigt med mycket mindre beräkning, och som använder mindre kommunikation än den kommunikationsbaserade algoritmen. O ne potentiell tillämpning av detta arbete är i system med många orörliga sensorer. I stället för att alla sensorer är aktiva hela tiden kan en sparsam uppsättning sensorer vara aktiva och söka efter händelser. När händelser inträffar kan olika sensorer bli aktiva (och andra inaktiva) för att härma den rörelse av sensorer som beskrivs i denna artikel. Detta skulle möjliggöra samma koncentration av aktiva avkänningsresurser samtidigt som det totala systemets effektförbrukning begränsas. Avvägningen mellan att använda många orörliga sensorer och färre mobila sensorer skulle då vara strikt beroende av kostnaden, i första hand av avkänningselementens kostnad. Därför skulle dyra sensorer kunna användas på mobila plattformar, och billiga sensorer skulle kunna användas på större orörliga system. Vi hoppas kunna utveckla andra tekniker för sensorpositionering och utöka våra tekniker till mer komplexa uppgifter, såsom begränsad sensorrörelse och tidsvarierande händelsefördelningar. Ur ett algoritmiskt perspektiv skulle vi kunna tillämpa ett tillvägagångssätt som liknar Kohonens funktionskartor, som använder geometri för att klassificera underliggande distributioner. Genom att definiera sensorn närmast en händelse som bäst passar till datan, kunde vi uppdatera de angränsande sensorerna efter varje händelse. Istället för att uppdatera ett virtuellt nätverk Ett exempel på ett nytt program är ett där miljön har en komplex form eller innehåller hinder, eller där sensorerna har särskilda rörelsebegränsningar. I dessa fall, om kunskap om begränsningarna finns, kan sensorerna kunna planera vägar för att uppnå sin rätta position, och nätverket kan sprida denna kunskap. Sensorerna kan också byta roller om det möjliggör ett effektivare beteende. En annan viktig situation är att händelsefördelningen förändras över tiden. Det finns flera olika sätt att låta sensorerna slappna av mot sin ursprungliga distribution, och det bästa valet kan starkt bero på uppgiften och dess timliga egenskaper. Genom att utveckla algoritmer för dessa situationer hoppas vi kunna producera system som kan reagera korrekt online på en rad händelser under en mängd olika omständigheter. Vi uppskattar det stöd som ges för detta arbete genom Institutet för säkerhetsteknikstudier; National Science Foundation delar ut EIA-9901589, IIS-9818299, IIS-9912193, EIA-0202789, och 0225446; Office of Naval Research Award N00014-01-1-0675; och DARPA uppdragsbidrag F-30602-00-2-0585. Vi tackar också recensenterna för deras tid och många insiktsfulla kommentarer. REFERENS
I REF Butler och Rus föreslogs två rörliga strategier för händelsen täckningsproblem i ett mobilt sensornätverk; historia-fri strategi och historia-baserad strategi.
17,581,338
Event-based motion control for mobile-sensor networks
{'venue': 'IEEE Pervasive Computing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,928
Abstract-Recent framsteg inom nätkodning har visat stor potential för effektiv informationsmulticasting i kommunikationsnät, både när det gäller nätgenomströmning och nätverkshantering. I detta dokument tar vi upp problemet med hastighetskontroll vid slutsystem för nätkodningsbaserade multicastflöden. Vi utvecklar två adaptive rate control algoritmer för nätverken med givna kodning subgraphs och utan givna kodning subgraphs, respektive. Med slumpmässig nätverkskodning kan båda algoritmerna implementeras på ett distribuerat sätt, och arbeta på transportlager för att justera källhastigheter och på nätverksnivå för att utföra nätverkskodning. Vi bevisar att de föreslagna algoritmerna konvergerar till de globalt optimala lösningarna för intrasessionsnätverkskodning. Några relaterade frågor diskuteras och numeriska exempel ges som komplement till vår teoretiska analys.
I REF tas hastighetskontroll upp i transportskiktet för att justera källhastigheten.
52,850,401
Optimization Based Rate Control for Multicast with Network Coding
{'venue': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'journal': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']}
14,929
Vi analyserar algoritmer för att approximera en funktion f (x) = x kartläggning d till d med hjälp av djupa linjära neurala nätverk, det vill säga att lära sig en funktion h parameteriserad av matriser 1,. .., L och definieras av h(x) = L−1. ..... 1 x. Vi fokuserar på algoritmer som lär sig genom lutning nedstigning på befolkningen quadratic förlust i fall att fördelningen över ingångarna är isotropic. Vi ger polynomiska gränser på antalet iterationer för lutning nedstigning till ungefär den minsta-kvartsmatris, I fallet där den ursprungliga hypotesen 1 =. . = L = Jag har en alltför stor förlust som begränsas av en tillräckligt liten konstant. Vi visar också att lutning nedstigning misslyckas med att konvergera för vars avstånd från identiteten är en större konstant, och vi visar att vissa former av legalisering mot identiteten i varje lager inte hjälper. Om är symmetriskt positiv definitiv, Vi visar att en algoritm som initierar i = Jag lär sig en approximation av f med hjälp av ett antal uppdateringar polynom i L, tillståndet antal Och log(d/ ). I kontrast, vi visar att om den minsta-kvartsmatrisen är symmetrisk och har ett negativt eigenvärde, då alla medlemmar av en klass av algoritmer som utför lutning nedstigning med identitetsinitiering, och valfritt regularisera mot identiteten i varje lager, misslyckas med att konvergera. Vi analyserar en algoritm för fallet som uppfyller u > 0 för alla u men kanske inte är symmetriska. Denna algoritm använder två regularizers: en som upprätthåller invariant u L‐1. ... 1 u > 0 för alla u och den andra som "balanserar" 1,. .., L så att de har samma singular värden.
På senare tid har REF visat konvergensresultat för lutningsnedstigning på sådana problem, förutsatt att ingångarna är isotropa och att den linjära målkartläggningen är symmetrisk och positiv.
3,544,497
Gradient Descent with Identity Initialization Efficiently Learns Positive-Definite Linear Transformations by Deep Residual Networks
{'venue': 'Neural Computation', 'journal': 'Neural Computation', 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']}
14,930
Vi utvecklar en ny metod för att använda tidigare tekniker för att bevisa selektiv säkerhet för funktionella krypteringssystem som en direkt ingrediens i att ta fram bevis för full säkerhet. Detta fördjupar förhållandet mellan de selektiva och fullständiga säkerhetsmodellerna och ger en väg för att överföra de bästa egenskaperna hos selektivt säkra system till fullt säkra system. I synnerhet presenterar vi en Ciphertext-Policy Attribut-Based Encryption system som är bevisat fullt säker samtidigt som den matchar effektiviteten i den senaste tekniken selektivt säkra system.
Senare tillhandahöll Lewko och Waters REF en ny metod som kan omvandla selektivt säkra system till anpassningsbart säkra system och presenterade ett CP-ABE-system som visar sig vara fullt säkert.
2,885,306
New proof methods for attribute-based encryption: Achieving full security through selective techniques
{'venue': 'in Proc. of CRYPTO', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,931
Abstract-I detta papper, lärande-baserade algoritmer för bildrenovering och blind bildrenovering föreslås. Sådana algoritmer avviker från de traditionella tillvägagångssätten inom detta område, genom att utnyttja tidigare som lärs av liknande bilder. Originalbilder och deras nedbrutna versioner av den kända nedbrytningsoperatören (återställningsproblem) används för att utforma VQ-kodböckerna. Kodvektorerna är utformade med hjälp av de suddiga bilderna. För varje sådan vektor finns också den högfrekvensinformation som erhålls från originalbilderna. Under restaureringen beräknas högfrekvensinformationen för en given skadad bild utifrån dess lågfrekvensinformation baserad på kodböckerna. För den blinda restaurering problemet, ett antal codebooks är utformade som motsvarar olika versioner av den suddiga funktionen. Med tanke på en bullrig och suddig bild väljs en av kodböckerna på grundval av en likhetsåtgärd, vilket ger en identifiering av suddigheten. För att restaureringsprocessens beräkningseffektivitet ska användas som huvudkomponentanalys (PCA) och VQ-Nearest Neighborhood-metoder. Simuleringsresultat presenteras för att visa de föreslagna algoritmernas effektivitet.
Detta tillvägagångssätt används i REF för problemet med restaurering av bilder.
6,005,299
A VQ-based blind image restoration algorithm
{'venue': 'IEEE Transactions on Image Processing', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']}
14,932
Abstrakt. Vi etablerar en en-till-en korrespondens mellan 1-plans grafer och allmänna och hålfria 4-kartor grafer och visar att 1-plans grafer kan kännas igen i polynom tid om de korsas-augmented, helt triangulated, respektive maximal 1-planar, med ett polynom av grad 120, 3, respektive 5.
I dokumentet REF diskuterades ett samband mellan kartgrafer och 1-plansgrafer, ett intressant ämne i grafritning.
12,971,554
On 4-Map Graphs and 1-Planar Graphs and their Recognition Problem
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
14,933
Abstract-I mobila sensornätverk är det viktigt att hantera rörligheten i noderna för att förbättra nätverkets prestanda. Detta dokument tar upp problemet med en enda målspårning i kontrollerade mobilitetssensornätverk. Den föreslagna metoden består i att uppskatta den nuvarande positionen för ett enskilt mål. Beräknade positioner används sedan för att förutsäga följande plats för målet. När ett område av intresse definieras består det föreslagna tillvägagångssättet av att flytta de mobila noderna för att täcka det på ett optimalt sätt. Det definierar därför en strategi för att välja uppsättningen av nya sensorer platser. Varje nod tilldelas sedan en position inom uppsättningen för att minimera den totala ressträckan genom noderna. Medan uppskattningen och förutsägelsefaserna utförs med hjälp av intervallteorin, omlokaliserar noder använder myrkolonioptimering algoritm. Simuleringsresultat bekräftar den föreslagna metodens effektivitet jämfört med de målspårningsmetoder som beaktas för nätverk med statiska noder.
Med tanke på problemet med enkel målspårning i kontrollerade mobilitetssensornätverk har forskare i Ref föreslagit en ny strategi som bygger på den intervallbaserade uppskattningen för hantering av sensorers rörlighet för att förbättra uppskattningen av målets position.
6,238,038
Controlled Mobility Sensor Networks for Target Tracking Using Ant Colony Optimization
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
14,934
Abstract-Middleboxar har blivit en viktig del av moderna nätverk genom att tillhandahålla servicefunktioner som innehållsfiltrering, lastbalansering och optimering av nätverkstrafiken. En ordnad sekvens av mellanboxar som utgör en logisk tjänst kallas servicekedja. Service Function Kedja (SFC) gör det möjligt för oss att definiera dessa servicekedjor. Nya optimeringsmodeller av SFC förutsätter att funktionaliteten hos en mellanbox tillhandahålls av en enda programvaruapparat, allmänt känd som Virtual Network Function (VNF). Detta antagande begränsar SFC till genomströmningen av en individuell VNF och resurser för en fysisk maskin som är värd för VNF-exemplet. Dessutom erbjuder typiska tjänsteleverantörer VNF med heterogena genomströmnings- och resurskonfigurationer. Därför kan driftsättning av en servicekedja med anpassad genomströmning bli en tråkig process för att sy heterogena VNF-fall. I detta dokument beskriver vi hur vi kan övervinna dessa begränsningar utan att oroa oss för underliggande VNF-konfigurationer och resursbegränsningar. Detta perspektiv uppnås genom distribuerad driftsättning flera VNF instanser som tillhandahåller funktionaliteten i en mellanbox och modellera den optimala utbyggnaden av en tjänstekedja som ett blandat heltal programmeringsproblem. Den föreslagna modellen optimerar fördelning av värd- och bandbreddsresurser, och bestämmer optimal placering av VNF-fakturer, samtidigt som arbetsbelastning och routingtrafik balanseras mellan dessa VNF-fakturer. Vi visar att detta problem är NP-Hard och föreslår en heuristisk lösning som kallas Kariz. Kariz använder en inställningsparameter för att kontrollera avvägningen mellan hastigheten och noggrannheten hos lösningen. Slutligen utvärderas vår lösning med hjälp av simuleringar i datacenternätverk.
REF modellerar den optimala utbyggnaden av en servicekedja som en MILP samtidigt optimera värd- och bandbreddsresurser.
51,981,533
Service Function Chaining Simplified
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
14,935
Abstract-De högsta noggrannhet objekt detektorer hittills är baserade på en två-stegs strategi populär av R-CNN, där en klassificering tillämpas på en gles uppsättning kandidat objekt platser. Däremot har enstegsdetektorer som appliceras över en regelbunden, tät provtagning av möjliga objektplatser potential att bli snabbare och enklare, men har följt noggrannheten hos tvåstegsdetektorer hittills. I detta dokument undersöker vi varför så är fallet. Vi upptäcker att den extrema förgrunds-bakgrundsklassobalansen under utbildningen av täta detektorer är den centrala orsaken. Vi föreslår att man tar itu med denna obalans genom att omforma den normala korsentropiförlusten så att den minskar den förlust som hänförs till välklassificerade exempel. Vår roman Focal Loss fokuserar träningen på en gles uppsättning hårda exempel och förhindrar det stora antalet enkla negativ från att överväldiga detektorn under träningen. För att utvärdera effektiviteten av vår förlust, vi utforma och träna en enkel tät detektor som vi kallar RetinaNet. Våra resultat visar att när RetinaNet tränas med fokal förlust, kan matcha hastigheten på tidigare en-stegs detektorer samtidigt överträffa noggrannheten hos alla befintliga state-of-the-art två-stegs detektorer. Koden finns på https://github.com/facebookresearch/Detectron.
Vi använder fokal förlust REF för att tackla det eftersom det förhindrar det stora antalet enkla negativa från att överväldiga detektorn under utbildningen.
47,252,984
Focal Loss for Dense Object Detection
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
14,936
Många trafikproblem i Kina som trafikstockningar och luftföroreningar orsakas främst av den ökande trafikvolymen. För att minska trafikstockningarna och förbättra nätprestandan har analysen av trafiktillståndet och trängselspridningen väckt stort intresse. I detta dokument föreslås en förbättrad mesoskopisk trafikflödesmodell för att fånga förhållandet mellan hastighet och densitet på segment, kölängd, flödet på länkar och så vidare, Den självutvecklade dynamiska trafiksimuleringsprogramvaran (DynaCHINA) används för att reproducera trafikstockningar och utbredning i ett tvåvägsnät för olika efterfrågenivåer. Simuleringsresultaten visar att den föreslagna modellen och metoden kan fånga de verkliga trafiktillstånden. Därför kan våra resultat ge beslutsstöd för stadstrafikledning och planering.
En förbättrad mesoskopisk trafikflödesmodell föreslogs sedan för att reproducera trafikstockningar och förökning i ett dubbelriktat nätnät REF.
73,679,635
Dynamic analysis of traffic state and congestion propagation on bidirectional grid network
{'venue': None, 'journal': 'Discrete Dynamics in Nature and Society', 'mag_field_of_study': ['Mathematics']}
14,937
I detta papper presenterar vi en enkel men kraftfull subgraph provtagning primitiva som är tillämplig i en mängd olika beräkningsmodeller inklusive dynamiska grafströmmar (där indatagrafen definieras av en sekvens av kant/hyperedge tillägg och raderingar) och distribuerade system som MapReduce. När det gäller dynamiska grafströmmar använder vi denna primitiva för att bevisa följande resultat: • Matchning: Vårt huvudsakliga resultat för matchningar är att det finns añ O(k 2 ) rymdalgoritm som returnerar kanterna på en maximal matchning på antagandet att kardinaliteten är som mest k. Den bästa tidigare algoritmen som används Õ(kn) utrymme där n är antalet hörn i grafen och vi visar att vårt resultat är optimal upp till logaritmiska faktorer. Vår algoritm har Õ(1) uppdateringstid. Vi visar också att det finns en Õ(n 2 /α 3 ) rymdalgoritm som returnerar en α- approximation för matchningar av godtycklig storlek. I självständigt arbete, Assadi et al. (SODA 2016) bevisade att denna approximationsalgoritm är optimal och tillhandahöll en alternativ algoritm. Vi generaliserar våra exakta och ungefärliga algoritmer till viktad matchning. För grafer med låg arboricity liksom planar grafer, det utrymme som krävs för konstant approximation kan ytterligare minskas. Även om det har varit en betydande mängd arbete på ungefärlig matchning i infoga-bara grafströmmar, dessa är de första icke-triviala resultaten i den dynamiska inställningen. • Vertex Cover and Hitting Set: Det finns en Õ(k d ) rymdalgoritm som löser minsta träffuppsättningsproblem där d är kardinaliteten för inmatningsuppsättningarna och k är en övre gräns för storleken på den minsta träffuppsättningen. Vi bevisar att detta är optimalt upp till logaritmiska faktorer. Vår algoritm har Õ(1) uppdateringstid. Fallet d = 2 motsvarar minsta vertex-täckning. Slutligen anser vi att en större familj av parameteriserade problem (inklusive b-matchning, delningsvägar, vertex färgning bland andra) för vilka vår subgraf provtagning primitiv ger snabb, liten utrymme dynamisk graf ström algoritmer. Vi visar sedan lägre gränser för naturliga problem utanför denna familj.
Algoritmer för att bygga en maximal matchning på de flesta k kanter i en oviktad eller en viktad graf har också studerats under den dynamiska streaming modellen REF.
7,622,045
Kernelization via Sampling with Applications to Finding Matchings and Related Problems in Dynamic Graph Streams
{'venue': 'SODA', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
14,938
Abstract-Source kodsökning spelar en viktig roll i många programvarutekniska uppgifter. Men designa en fråga som exakt kan hämta relevanta programvaruartefakter kan vara utmanande för utvecklare eftersom det kräver en viss nivå av kunskap och erfarenhet när det gäller kodbasen. Detta dokument visar hur svårigheten att utforma en korrekt fråga kan lindras genom automatisk frågereform (QR) - en under-the-hood operation för att omformulera en användares fråga utan ytterligare indata från användaren. Den föreslagna QR-ramverket fungerar genom att berika en användares sökfråga med vissa specifika ytterligare termer hämtade från de högst rankade artefakter som svar på den ursprungliga frågan. Den viktiga punkten här är att dessa ytterligare termer injiceras i en fråga är de som anses vara "nära" till de ursprungliga frågetermerna i källkoden på grundval av positionsnära närhet. Denna likhet metriska bygger på uppfattningen att termer som behandlar samma begrepp i källkod är oftast proximal till varandra i samma filer. Vi demonstrerar överlägsenheten av vår QR-ramverk i förhållande till QR-ramverken välkända i det naturliga språket dokumenthämtning genom att visa betydande förbättringar i bugg lokalisering prestanda för två stora mjukvaruprojekt med mer än 4.000 frågor.
På samma sätt föreslog Sisman och Kak en frågereform ram som berikar den ursprungliga frågan med termer hämtade från de högst rankade artefakter som svar på den ursprungliga frågan REF.
3,915,553
Assisting code search with automatic Query Reformulation for bug localization
{'venue': '2013 10th Working Conference on Mining Software Repositories (MSR)', 'journal': '2013 10th Working Conference on Mining Software Repositories (MSR)', 'mag_field_of_study': ['Computer Science']}
14,939
Abstrakt. Städerna står i dag inför komplexa utmaningar för att uppfylla målen om socioekonomisk utveckling och livskvalitet. Begreppet "smarta städer" är ett svar på dessa utmaningar. I detta dokument utforskas "smarta städer" som miljöer för öppen och användardriven innovation för att experimentera och validera framtida Internet-aktiverade tjänster. Baserat på en analys av det nuvarande landskapet för pilotprojekt för smarta städer, Future Internet experimentellt driven forskning och projekt inom området Living Labs, kan gemensamma resurser för forskning och innovation identifieras som kan delas i öppna innovationsmiljöer. För att effektivt kunna dela dessa gemensamma resurser i syfte att upprätta urbana och regionala innovationsekosystem krävs hållbara partnerskap och samarbetsstrategier bland de viktigaste aktörerna. Nyckelord: Smart Cities, Future Internet, Collaboration, Innovation Ecosystems, User Co-Creation, Living Labs, Resursdelning Begreppet "smarta städer" har fått stor uppmärksamhet inom ramen för stadsutvecklingspolitiken. Internet- och bredbandsnätstekniken som möjliggör e-tjänster blir allt viktigare för stadsutvecklingen, medan städerna i allt högre grad intar en avgörande roll som drivkrafter för innovation på områden som hälsa, integration, miljö och näringsliv [1]. Därför uppstår frågan om hur städer, omgivande regioner och landsbygdsområden kan utvecklas mot hållbara öppna och användardrivna innovationsekosystem för att främja framtida Internetforskning och experiment för användardrivna tjänster och hur de kan påskynda forskningscykeln, inno- vation och införande i verkliga miljöer. I detta dokument ägnas särskild uppmärksamhet åt samarbetsramar som integrerar inslag som Future Internet testbeds och Living Lab-miljöer som etablerar och främjar sådana innovationsekosystem. Utgångspunkten är den definition som anger att en stad kan kallas "smart" "när investeringar i mänskligt och socialt kapital och traditionell (transport) och modern (IKT) kommunikationsinfrastruktur underblåser hållbar ekonomisk tillväxt och en hög livskvalitet, med en klok förvaltning av naturresurser, genom deltagande regering" [2]. Denna helhetsdefinition balanserar på ett fint sätt olika ekonomiska och sociala krav samt de behov som stadsutvecklingen medför, samtidigt som den omfattar perifera och mindre utvecklade städer. Den betonar också den ekonomiska återhämtningsprocessen för välfärds- och välfärdsändamål. För det andra bygger denna karakterisering implicit på Internets och Web 2.0:s roll som potentiella möjliggörare av stadsvälfärd genom socialt deltagande, för att ta itu med heta samhällsutmaningar som energieffektivitet, miljö och hälsa. Hittills har städernas och regionernas roll i IKT-baserad innovation främst inriktats på utbyggnad av bredbandsinfrastruktur [3] men stimulansen av IKT-baserade tillämpningar som förbättrar medborgarnas livskvalitet har nu blivit en nyckelprioritering. Som ett nästa steg får städernas potentiella roll som innovationsmiljöer erkännande [4]. Europeiska kommissionens nuvarande program för sjunde ramprogrammet för informations- och kommunikationsteknik och ramprogrammet för konkurrenskraft och innovation stimulerar experiment till konceptet smarta städer som pilotprojekt för användardrivna öppna innovationsmiljöer. Det implicita syftet med sådana initiativ är att mobilisera städer och stadsområden samt landsbygds- och regionala miljöer som medel för förändring och som miljöer för "demokratisk innovation" [5]. I allt större utsträckning betraktas städer och stadsområden inte bara som föremål för innovation utan också som innovationsekosystem som ger användar- och medborgarsamhällena möjlighet till kollektiv intelligens och samskapande förmåga att utforma innovativa levnads- och arbetsscenarier. Partnerskap och tydliga samarbetsstrategier bland de viktigaste intressenterna behövs för att dela forsknings- och innovationsresurser såsom experimentella teknikplattformar, nya IKT-verktyg, metoder och know-how samt användargrupper för experiment om framtida Internetteknik och tillämpningar för e-tjänster. Gemensamma, gemensamma forsknings- och innovationsresurser samt samarbetsmodeller som ger tillgång till sådana resurser kommer att utgöra den framtida ryggraden i städernas innovationsmiljöer för att utnyttja de möjligheter som framtida Internetteknik erbjuder. Tre perspektiv behandlas i detta dokument för att undersöka förutsättningarna för att möta denna utmaning (se tabell 1). Det första perspektivet på framtida forskning och experiment på Internet är ett teknikinriktat och långsiktigt bidrag till urbana innovationsekosystem. Städer och stadsområden erbjuder en potentiellt attraktiv test- och valideringsmiljö. Det finns dock en stor klyfta mellan framtidens Internetforsknings tekniska inriktning och städernas behov och ambitioner. Det andra perspektivet består därför av stadspolitik och stadsutvecklingspolitik. Stadspolitiker, medborgare och företag är i första hand intresserade av konkreta och kortsiktiga lösningar som gynnar nyetablering av företag, stimulans av små och medelstora företag och socialt deltagande. Även om många städer har tagit initiativ till IKT-innovationsprogram för att stimulera företags- och samhällstillämpningar är det i dag mycket viktigt att utöka pilotprojekten till storskaliga, verkliga tillämpningar. Ett tredje perspektiv är därför begreppet öppna och användardrivna innovationsekosystem, som ligger nära städernas och deras intressenters intressen och behov, inklusive medborgare och företag, och som kan överbrygga klyftan mellan kortsiktiga prioriteringar för stadsutveckling och långsiktig teknisk forskning och experiment. En viktig utmaning är utvecklingen av samarbetsramar och synergier mellan framtida internetforskning, stadsutvecklingspolitik och öppen användardriven innovation. I dessa ramar ingår utbyte av och tillgång till olika uppsättningar av kunskapsresurser och försöksanläggningar, användning av innovativ upphandlingspolitik för att anpassa teknisk utveckling och samhällsutmaningar samt upprättande av öppna innovationsmodeller för att skapa ett hållbart samarbete. Begreppet öppen och användardriven innovation verkar vara väl positionerat för att fungera som en medlings-, försöks- och deltagarlekpark som kombinerar framtidens Internet push och urban policy dra i efterfrågestyrda cykler av experiment och innovation. Levande Labdrivna innovationsekosystem kan utvecklas till att utgöra kärnan i "4P" (PublicPrivate-Private-Private-Partnership) ekosystem som ger medborgare och företag möjlighet att medskapa, utforska, experimentera och validera innovativa scenarier baserade på teknikplattformar såsom framtida Internetexperimentella anläggningar som involverar små och medelstora företag och stora företag samt intressenter från olika discipliner. Detta dokument är uppbyggt på följande sätt: Avsnitt 2 tar upp utmaningar för städer att utnyttja möjligheterna med framtidens Internet och levande Lab-innovation ekosystem. Hur metoder för framtida Internetexperiment och Living Labs kan utgöra innovationsekosystemen i smarta städer diskuteras i avsnitt 3. De första exemplen på sådana ekosystem och relaterade samarbetsmodeller presenteras i avsnitt 4. I avsnitt 5 presenteras slutligen slutsatser och framtidsutsikter. I början av 1990-talet myntades uttrycket "smart stad" för att visa hur stadsutvecklingen vände sig mot teknik, innovation och globalisering [6]. möta städernas utmaningar i en global kunskapsekonomi [7]. Det senaste intresset för smarta städer kan dock tillskrivas den stora omsorgen om hållbarhet och den nya Internetteknikens framväxt, såsom mobila enheter (t.ex. smarta telefoner), den semantiska webben, cloud computing och Internet of Things (IoT) som främjar verkliga användargränssnitt. Begreppet smarta städer sett ur teknik- och komponentperspektiv har vissa specifika egenskaper inom den bredare litteraturen i cyber-, digital-, smart- och intelligentstäder. Det fokuserar på de senaste framstegen inom mobila och genomträngande datorer, trådlösa nätverk, middleware och agentteknik när de blir inbäddade i de fysiska utrymmena i städer. Tonvikten på smarta inbyggda anordningar är ett utmärkande drag för smarta städer jämfört med intelligenta städer, som skapar territoriella innovationssystem som kombinerar kunskapsintensiv verksamhet, institutioner för samarbete och lärande och webbaserade tillämpningar av kollektiv intelligens [8, 9]. Cyber städer, från cyberrymd, cybernetik, styrning och kontroll utrymmen baserade på information feedback, stadsförvaltning; men också innebär negativa / mörka sidor av cyberrymd, it-brottslighet, spårning, identifiering, militär kontroll över städer. Digitala städer, från digital representation av städer, virtuella städer, digital metafor av städer, städer avatarer, andra livet städer, simulering (sim) stad. Intelligenta städer, från städernas nya underrättelseverksamhet, medborgarnas kollektiva underrättelseverksamhet, distribuerad underrättelseverksamhet, crowdsourcing, onlinesamarbete, bredband för innovation, städernas sociala kapital, samverkansbaserat lärande och innovation, människodriven innovation. Smarta städer, från smarta telefoner, mobila enheter, sensorer, inbyggda system, smarta miljöer, smarta mätare och instrumentering som upprätthåller städernas intelligens. Man räknar med att smarta stadslösningar, med hjälp av instrumentering och sammankoppling av mobila enheter, sensorer och ställdon som gör det möjligt att samla in och analysera verkliga stadsdata, kommer att förbättra förmågan att förutse och hantera stadsflöden och driva städernas kollektiva intelligens framåt [10]. Smarta och intelligenta städer har denna moderniseringspotential eftersom de inte är händelser i cybersfären utan integrerade sociala, fysiska, institutionella och digitala utrymmen, där digitala komponenter förbättrar den socioekonomiska verksamhetens funktion och förvaltningen av städernas fysiska infrastruktur, samtidigt som städernas problemlösningsförmåga förbättras. Den viktigaste utmaningen för smarta stadsmiljöer är att ta itu med städernas problem och utvecklingsprioriteringar inom en global och innovationsstyrd värld. I ett offentligt samråd som nyligen hölls av Europeiska kommissionen [11] om de stora utmaningarna i fråga om stadsutveckling och regional utveckling i EU har tre huvudprioriteringar fastställts för den framtida sammanhållningspolitiken efter 2013. Det verkar som om konkurrenskraften kommer att förbli kärnan i sammanhållningspolitiken, särskilt när det gäller forskning, innovation och kompetenshöjning för att främja kunskapsekonomin. Aktiv arbetsmarknadspolitik är av högsta prioritet för att upprätthålla sysselsättningen, stärka den sociala sammanhållningen och minska risken för fattigdom. Andra heta samhällsfrågor är hållbar utveckling, minskade utsläpp av växthusgaser och förbättrad energieffektivitet i städernas infrastruktur. Smarta städer Smarta städer och framtidens Internet 435 lösningar förväntas ta itu med dessa utmaningar, upprätthålla innovationsekonomin och städernas välstånd, upprätthålla sysselsättningen och bekämpa fattigdomen genom skapande av arbetstillfällen, optimering av energi- och vattenanvändning och besparingar samt genom att erbjuda säkrare städer. För att uppnå dessa mål måste dock städernas myndigheter ta initiativ och strategier som skapar den fysiska digitala miljön i smarta städer, förverkligar användbara tillämpningar och e-tjänster och säkerställer långsiktig hållbarhet i smarta städer genom livskraftiga affärsmodeller. Den första uppgiften som städerna måste ta itu med när de blir smarta är att skapa en rik miljö av bredbandsnät som stöder digitala tillämpningar. Detta omfattar 1) utveckling av bredbandsinfrastruktur som kombinerar kabel, optisk fiber och trådlösa nät, som erbjuder hög uppkoppling och bandbredd till medborgare och organisationer belägna i staden, 2) berikande av det fysiska utrymmet och infrastrukturen i städer med inbyggda system, smarta enheter, sensorer och manöverdon, som erbjuder hantering av data i realtid, varningar och informationsbehandling, och 3) skapande av tillämpningar som möjliggör insamling och behandling av data, webbaserat samarbete och aktualering av medborgarnas kollektiva intelligens. Den senaste utvecklingen inom cloud computing och det framväxande Internet of Things, öppna data, semantiska webben och framtida medieteknik har mycket att erbjuda. Dessa tekniker kan säkerställa stordriftsfördelar inom infrastruktur, standardisering av tillämpningar och nyckelfärdiga lösningar för programvara som en tjänst, vilket dramatiskt minskar utvecklingskostnaderna och samtidigt påskyndar inlärningskurvan för att driva smarta städer. Den andra uppgiften består i att initiera storskaliga deltagande innovationsprocesser för att skapa tillämpningar som kommer att driva och förbättra alla verksamhetssektorer, stadskluster och infrastruktur. Alla stadsekonomiska verksamheter och allmännyttiga tjänster kan ses som innovationsekosystem där medborgare och organisationer deltar i utvecklingen.
Med andra ord, trådlösa sensornätverk är en relevant komponent i ryggraden i Smart City system REF.
6,725,314
Smart cities and the future internet: towards cooperation frameworks for open innovation
{'venue': 'Future Internet Assembly', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,940
Abstrakt. Det en-agent multi-armad bandit problemet kan lösas av en agent som lär sig värdena av varje åtgärd med hjälp av förstärkning lärande. Men den multi-agent version av problemet, iterated normal form spel, utgör en mer komplex utmaning, eftersom belöningarna som är tillgängliga för varje agent beror på de andras strategier. Vi anser beteendet hos värdebaserade inlärningsagenter i denna situation, och visar att sådana agenter i allmänhet inte kan spela på en Nash jämvikt, även om om smidiga bästa svar används, en Nash distribution kan nås. Vi introducerar en särskild värdebaserad inlärningsalgoritm, som vi kallar individuell Q-learning, och använder stokastisk approximation för att studera det asymptotiska beteendet, visar att strategier kommer att konvergera till Nash distribution nästan säkert i 2-spelare nollsummespel och 2-spelare partnerskapsspel. Spelareberoende inlärningsfrekvenser beaktas sedan, och det visas att denna förlängning konvergerar i vissa spel där många algoritmer, inklusive den grundläggande algoritm som ursprungligen övervägdes, misslyckas med att konvergera.
När utvärderingen av Q-värdena är helt indepen-dent, som i den enskilda Q-learning i REF, då konvergens till Nash equilibria har visat endast för 2player nollsummespel och 2-player partnerskapsspel med räknat många Nash equilibria.
16,560,412
Individual Q-learning in normal form games
{'venue': 'In submission', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
14,941
Upptäckten av föreningsregler har visat sig vara användbar i många tillämpningar. I tidigare arbete, alla objekt i n a b asket databasen t r ätas enhetligt. Vi generaliserar detta till fallet där objekt ges vikter för att reektera deras betydelse för användaren. Vikterna kan motsvara särskilda säljfrämjande åtgärder för vissa produkter, eller möjligheten att använda olika produkter. Vi kan bryta de viktade föreningsreglerna med vikter. Den nedåtriktade stängningen av stödåtgärden i den oviktade c-asen existerar inte längre och tidigare algoritmer kan inte tillämpas. I detta dokument kommer två nya algoritmer att införas för att hantera detta problem. I dessa algoritmer använder vi oss av ett mått som kallas k-stöd som är bundet i gruvprocessen. Experimentella resultat visar att algoritmerna för stora databaser är eektiva.
Cai m.fl. REF har föreslagit en teknik, där poster har fått vikter, som kan vara användbara för särskilda kampanjer på vissa produkter eller maximera intäkterna från olika eller särskilda poster.
6,736,143
Mining association rules with weighted items
{'venue': "Proceedings. IDEAS'98. International Database Engineering and Applications Symposium (Cat. No.98EX156)", 'journal': "Proceedings. IDEAS'98. International Database Engineering and Applications Symposium (Cat. No.98EX156)", 'mag_field_of_study': ['Computer Science']}
14,942
Traditionell relation extraktion förutsäger relationer inom vissa fasta och ändliga mål schema. Maskininlärning metoder för denna uppgift kräver antingen manuell annotering eller, i fallet med avlägsen övervakning, befintliga strukturerade källor av samma schema. Behovet av befintliga dataset kan undvikas genom att använda ett universellt schema: föreningen av alla inblandade scheman (ytform predikat som i OpenIE, och relationer i scheman för befintliga databaser). Detta schema har en nästan obegränsad uppsättning relationer (på grund av ytformer), och stöder integration med befintliga strukturerade data (genom relation typer av befintliga databaser). För att fylla en databas av sådana schema presenterar vi matris factorization modeller som lär latent funktion vektorer för entitet tuples och relationer. Vi visar att sådana latenta modeller uppnår betydligt högre noggrannhet än en traditionell klassificeringsmetod. Ännu viktigare, genom att arbeta samtidigt på relationer som observeras i text och i befintliga strukturerade DBs som Freebase, kan vi resonera om ostrukturerade och strukturerade data på ömsesidigt stödjande sätt. Genom att göra det överträffar vårt tillvägagångssätt den senaste avlägsna övervakningen.
En state-of-the-art använder matris factorization och universella scheman för att extrahera relationer REF.
2,687,019
Relation Extraction with Matrix Factorization and Universal Schemas
{'venue': 'NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,943
Vad är en bra vektor representation av ett objekt? Vi anser att det bör vara generativt i 3D, i den meningen att det kan producera nya 3D-objekt, samt vara förutsägbart från 2D, i den meningen att det kan uppfattas från 2D-bilder. Vi föreslår en ny arkitektur, kallad TL-inbäddningsnätverket, för att lära sig ett inbäddat utrymme med dessa egenskaper. Nätverket består av två komponenter: a) en autoenkoder som säkerställer att representationen är generativ, och b) ett konvolutionsnätverk som säkerställer att representationen är förutsägbar. Detta möjliggör att hantera ett antal uppgifter inklusive voxel förutsägelse från 2D-bilder och 3D-modell hämtning. Omfattande experimentell analys visar nyttan och mångsidigheten av detta inbäddande.
Girdhar m.fl. REF kombinerade en autoencoder och ett konvolutionsnätverk för att lära sig ett inbäddat utrymme med 2D-bilder och 3D-former.
6,598,262
Learning a Predictable and Generative Vector Representation for Objects
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
14,944
Abstract-I detta dokument, vi anser resursallokering optimering problem i cellulära nätverk för olika typer av användare som kör flera program samtidigt. I vår föreslagna modell tilldelas varje användarapplikation en nyttofunktion som representerar den applikationstyp som körs på användarutrustningen (UE). Nätoperatörerna tilldelar varje UE en prenumerationsvikt baserat på abonnemanget. Varje UE tilldelar en applikationsvikt till var och en av dess applikationer baserat på den momentana användningen procentandelen av programmet. Dessutom, UEs med högre prioritet tilldela ansökningar målhastigheter för sina tillämpningar. Vårt mål är att fördela resurserna optimalt bland UE och deras tillämpningar från en enda utvecklad nod B (eNodeB) baserat på en nyttoproportionerlig rättvis politik med prioritet till realtidsanvändare. En lägsta servicekvalitet (QoS) garanteras till varje UE-applikation baserat på UE-abonnemangets vikt, UE-ansökningens vikt och UE-ansökningens målhastighet. Vi föreslår en tvåstegsalgoritm för fördelning av eNodeB-resurser mellan användare och deras tillämpningar. Slutligen presenterar vi simuleringsresultat för prestandan hos vår hastighetstilldelningsalgoritm.
I REF presenterade författarna en resursfördelning med användare diskriminering algoritmer för att fördela eNodeB resurser optimalt bland användare och deras tillämpningar.
11,587,578
Multi-Application Resource Allocation with Users Discrimination in Cellular Networks
{'venue': '2014 IEEE 25th Annual International Symposium on Personal, Indoor, and Mobile Radio Communication (PIMRC)', 'journal': '2014 IEEE 25th Annual International Symposium on Personal, Indoor, and Mobile Radio Communication (PIMRC)', 'mag_field_of_study': ['Computer Science']}
14,945
Modellfri förstärkningsutbildning har framgångsrikt tillämpats på en rad utmanande problem, och har nyligen utökats för att hantera stora neurala nätverkspolicyer och värdefunktioner. Emellertid tenderar prov komplexiteten hos modellfria algoritmer, särskilt när man använder högdimensionella funktion approximatorer, att begränsa deras tillämplighet på fysiska system. I det här dokumentet utforskar vi algoritmer och representationer för att minska prov komplexiteten i djupt förstärkande lärande för kontinuerliga kontrolluppgifter. Vi föreslår två kompletterande tekniker för att förbättra effektiviteten hos sådana algoritmer. För det första härleder vi en kontinuerlig variant av Q-learning-algoritmen, som vi kallar normaliserade adantagefunktioner (NAF), som ett alternativ till den mer allmänt använda policygradienten och skådespelare-kritiska metoder. NAF representation gör det möjligt för oss att tillämpa Q-learning med erfarenhet replay till kontinuerliga uppgifter, och avsevärt förbättrar prestanda på en uppsättning simulerade robotiska styruppgifter. För att ytterligare förbättra effektiviteten i vårt tillvägagångssätt utforskar vi användningen av inlärda modeller för att påskynda modellfritt förstärkande lärande. Vi visar att iterativt refiterade lokala linjära modeller är särskilt effektiva för detta, och visar betydligt snabbare lärande på områden där sådana modeller är tillämpliga.
I detta arbete använder vi normaliserade fördelar funktioner (NAFs), som nyligen har föreslagits som en effektiv metod för kontinuerlig DRL REF.
890,737
Continuous Deep Q-Learning with Model-based Acceleration
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
14,946
I linje med det berömda CLI-stackprojektet [2] syftar Verisoft-projektet [31] till en genomgripande verifiering av hela datorsystem, inklusive hårdvara, systemprogramvara, kompilator och kommunikationsapplikationer, med särskilt fokus på industriella tillämpningar. Det huvudsakliga programmeringsspråk som används i Verisoft-projektet är C0 (en undergrupp av C som liknar MISRA C [20] ). I detta dokument redovisas i) en praktisk liten steg semantik för C0 som formaliseras i Isabelle/HOL [25], ii) den formella specifikationen av en kompilator från C0 till DLX maskinspråk [14, 23] i Isabelle/HOL, iii) ett papper och penna korrekthetsbevis för denna kompilator och statusen för den formella verifieringen av detta bevis, och iv) genomförandet av kompilatorn i C0 och ett formellt bevis i Isabelle/HOL på att genomförandet ger samma kod som specifikationen.
Parallellt med detta arbete formaliserades en delmängd av C, kallad C0 i Isabelle/HOL REF.
40,843,209
Towards the formal verification of a C0 compiler: code generation and implementation correctness
{'venue': 'SEFM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,947
Detta dokument studerar problemet med att automatiskt välja en liten delmängd av representanter från en uppsättning objekt, där objekt: a) är multiattribuerade med varje attribut som motsvarar olika aspekter av objektet och b) är förknippade med osäkerhet - problemet som har fått liten uppmärksamhet i det förflutna. Sådana objektuppsättningar leder till nya utmaningar när det gäller att modellera information som finns i data, definiera lämpliga kriterier för val av objekt och utforma effektiva algoritmer för ett sådant val. Vi föreslår ett ramverk som modellerar objekt som en uppsättning av motsvarande informationsenheter och minskar summeringsproblem till att optimera probabilistisk täckning. För att lösa det resulterande NP-hårda problemet, utvecklar vi en mycket effektiv girig algoritm, som vinner sin effektivitet genom att utnyttja objekt-nivå och iteration-nivåoptimering. En omfattande empirisk utvärdering av tre verkliga datauppsättningar visar att det föreslagna ramverket avsevärt överträffar baslinjeteknik när det gäller kvalitet och även skalar mycket väl mot storleken på datauppsättningen.
Så, papper REF föreslår en allmän ram som modellerar informationen i objekt och optimerar en probabilistisk täckning egendom i sammanfattningen.
6,374,165
Efficient summarization framework for multi-attribute uncertain data
{'venue': 'SIGMOD Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,948
Nuvarande högpresterande modeller för bildkvalitetsprognoser med blinda perceptuella bilder utbildas i allmänhet i äldre databaser med åsiktspoäng av mänsklig kvalitet på syntetiskt förvrängda bilder. Därför lär de sig bildfunktioner som effektivt förutsäger mänskliga visuella kvalitetsbedömningar av oautentiska och vanligtvis isolerade (enkel) förvrängningar. Dock innehåller verkliga bilder vanligtvis komplexa sammansatta blandningar av flera snedvridningar. Vi studerar den perceptuellt relevanta naturscensstatistiken över sådana autentiskt förvrängda bilder i olika färgrymder och omvandlar domäner. Vi föreslår ett ""bag of feature maps"" tillvägagångssätt som undviker antaganden om vilken typ av distorsion(er) som finns i en bild och istället fokuserar på att fånga sammansättningar-eller avvikelser från denna-av statistiken över verkliga bilder. Med hjälp av en stor databas med autentiskt förvrängda bilder, mänskliga åsikter om dem, och påsar med funktioner som beräknas på dem, tränar vi en regressor att utföra bildkvalitetsförutsägelse. Vi visar kompetensen hos funktionerna för att förbättra automatisk perceptuell kvalitetsförutsägelse genom att testa en lärd algoritm med hjälp av dem på en referens äldre databas samt på en nyligen införd distorsion-realistisk resurs som kallas LIVE I Wild Image Quality Challenge Database. Vi utvärderar utförligt den perceptuella kvalitetsförutsägelsemodellen och algoritmen och visar att den kan uppnå en förutsägelsekraft av god kvalitet som är bättre än andra ledande modeller.
I REF föreslog författarna en påse med funktionskartor för att undvika antaganden om vilken typ av förvrängning som finns i en bild, med fokus istället på att fånga sammansättningar av statistiken över verkliga bilder.
509,399
Perceptual quality prediction on authentically distorted images using a bag of features approach
{'venue': 'Journal of Vision', 'journal': 'Journal of Vision', 'mag_field_of_study': ['Computer Science', 'Medicine', 'Psychology']}
14,949
Fuzzy Intrusion Recognition Engine (FIRE) är ett system för att upptäcka intrång i nätet som använder luddiga system för att bedöma skadlig aktivitet mot datornätverk. Systemet använder ett agentbaserat tillvägagångssätt för att separera övervakningsuppgifter. Enskilda agenter utför sin egen fuzzification av indatakällor. Alla agenter kommunicerar med en fuzzy utvärdering motor som kombinerar resultaten av enskilda agenter med hjälp av fuzzy regler för att producera varningar som är sant i viss mån. Flera intrångsscenarier presenteras tillsammans med de suddiga systemen för att upptäcka intrången. De luddiga systemen testas med hjälp av data från nätverk under simulerade attacker. Resultaten visar att luddiga system enkelt kan identifiera portskanning och överbelastning. Systemet kan vara effektivt på att upptäcka vissa typer av bakdörrar och trojanska häst attacker.
Dickerson et al har föreslagit en luddig intrångsigenkänning motor (FIRE) för att upptäcka intrång i nätet som använder luddiga system för att bedöma skadlig aktivitet inne i ett datornätverk REF.
9,162,523
Fuzzy intrusion detection
{'venue': 'Proceedings Joint 9th IFSA World Congress and 20th NAFIPS International Conference (Cat. No. 01TH8569)', 'journal': 'Proceedings Joint 9th IFSA World Congress and 20th NAFIPS International Conference (Cat. No. 01TH8569)', 'mag_field_of_study': ['Computer Science']}
14,950
ABSTRACT Numera kommunikation maskin till maskin (M2M) och dess tillämpningar växer enormt runt om i världen eftersom miljontals enheter kommunicerar med varandra i ett Internet of Things (IoT)-aktiverad långsiktig utveckling (LTE) / LTE-Advanced (LTE-A) nätverk. Dessa applikationer är effektiva och säkra först efter en lyckad verifiering av maskintypkommunikationsenheter (MTCD). Därför föreslogs olika gruppbaserade autentiserings- och nyckelavtalsprotokoll (AKA) i litteraturen för att uppnå autentiseringen. Dessa protokoll uppfyller alla säkerhetskrav såsom sekretessbevarande, ömsesidig autentisering, integritet och sekretess. Men ingen av dem har den trovärdighet som krävs för att övervinna det gemensamma nyckelproblemet i kommunikationsnätet. Dessutom har de inte effekt för att upprätthålla gruppnyckeln olänkbarhet och är mottagliga för de identifierade attackerna. I vissa av protokollen måste varje MTCD autentisera självständigt för att samtidigt få tillgång till det kommunikationsnät som genererar överbelastning av nätet. Mot bakgrund av dessa problem föreslår vi det säkerhetsförbättrade gruppbaserade (SEGB) AKA-protokollet för M2M-kommunikation i ett IoT-aktiverat LTE/LTE-A-nätverk. SEGB-AKA-protokollet löser problemet med den enda nyckeln under autentiseringsprocessen och uppnår nyckeln framåt/bakåt sekretess. Protokollet löser problemet med att signalera trängsel och hög bandbredd. Den formella säkerhetsanalysen av protokollet utförs med hjälp av de automatiserade säkerhetsprotokollen och tillämpningsverktygen på Internet. Säkerhetsanalysen visar att protokollet uppnår säkerhetsmålen och är fritt från olika kända attacker. Dessutom analyseras resultatet av det föreslagna SEGB-AKA-protokollet med de befintliga gruppbaserade AKA-protokollen. Analysen visar att protokollet har bättre resultat i termer av nät omkostnader och uppfyller alla säkerhetskrav i M2M kommunikation. INDEX TERMS AVISPA, gruppautentisering, sakernas internet, LTE/LTE-A, M2M-kommunikation.
Parne m.fl. REF föreslår ett nytt AKA-protokoll baserat på säkerhetsförbättrad grupp för M2M-kommunikation i ett LTE/LTE-A-nätverk som använder IoT-teknik.
3,497,211
SEGB: Security Enhanced Group Based AKA Protocol for M2M Communication in an IoT Enabled LTE/LTE-A Network
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
14,951
Abstract-Multi-core compute noder med icke-uniform minnesåtkomst (NUMA) är nu en gemensam arkitektur i monteringen av storskaliga parallella maskiner. På dessa maskiner är, förutom kostnaderna för nätverkskommunikation, kostnaderna för minnesåtkomst inom en beräkningsnod också asymmetriska. Ignorera detta kan leda till en ökning av kostnaderna för datarörelser. För att fullt ut utnyttja potentialen hos dessa noder och minska kostnaderna för dataåtkomst blir det därför avgörande att ha en fullständig bild av maskintopologin (dvs. den beräknade nodtopologin och sammankopplingsnätet mellan noderna). Dessutom har det parallella applikationsbeteendet en viktig roll när det gäller att bestämma hur maskinen ska användas effektivt. I detta dokument föreslår vi en hierarkisk lastbalanseringsmetod för att förbättra prestandan hos tillämpningar på parallella flerkärniga system. Vi introducerar NUCOLB, en topologi-medveten lastbalanserare som fokuserar på att omfördela arbete samtidigt minska kommunikationskostnader bland och inom compute noder. NUCOLB tar hänsyn till de asymmetriska kostnader för minnesåtkomst som finns på NUMA:s multikärniga beräkningsnoder, de allmänna omkostnaderna för samtrafiknätet och tillämpningskommunikationsmönstren i sina balanseringsbeslut. Vi har implementerat NUCOLB med hjälp av CHARM++ parallellt körtidssystem och utvärderat dess prestanda. Resultaten visar att vår belastningsbalanser förbättrar prestandan upp till 20% jämfört med toppbelastningsbalanser på tre olika NUMA-parallellmaskiner.
L. Pilla och C. Ribeiro et al. har infört en ny hierarkisk mekanism för lastbalansering genom att införa dynamisk processmigrering, för att förbättra prestandan hos tillämpningar för parallella flerkärniga system REF.
6,773,690
A Hierarchical Approach for Load Balancing on Parallel Multi-core Systems
{'venue': '2012 41st International Conference on Parallel Processing', 'journal': '2012 41st International Conference on Parallel Processing', 'mag_field_of_study': ['Computer Science']}
14,952
Abstract-Resilience till paketförlust är ett kritiskt krav i prediktiv videokodning för överföring över paket-switched nätverk, eftersom förutsägelsen loop propagerar fel och orsakar betydande försämring i videokvalitet. Detta arbete föreslår en algoritm för att optimalt uppskatta den totala snedvridningen av dekoderramrekonstruktion på grund av kvantisering, felutbredning och fel döljning. Metoden beräknar rekursivt den totala distorsion av dekoder vid precision på pixelnivå för att korrekt redogöra för rumslig och temporal felutbredning. Uppskattningens noggrannhet visas genom simuleringsresultat. Uppskattningen är integrerad i en hastighetssnedvridning (RD)-baserad ram för optimal övergång mellan intra-kodning och inter-kodning lägen per makroblock. Kostnaden i beräkningskomplex är blygsam. Ramen utvidgas ytterligare för att på bästa sätt utnyttja återkoppling/godkännandeinformation från mottagaren/nätverket. Simuleringsresultat både med och utan en återkopplingskanal visar att exakt uppskattning av distorsion gör det möjligt för kodaren att uppnå betydande och konsekventa vinster i PSNR i förhållande till kända state-of-the-art RD- och icke-RD-baserade metoder för byte av läge.
För att ta hänsyn till tidsmässig och rumslig felutbredning på grund av kvantisering och paketförluster föreslås en algoritm i REF för att ta fram uppskattningar av den totala videosnedvridning som kan användas för att växla mellan inter- och intrakodningslägen per makroblock och uppnå högre PSNR.
1,408,385
Video coding with optimal inter/intra-mode switching for packet loss resilience
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
14,953
Eftersom förekomsten av denna sjukdom har ökat avsevärt under de senaste åren, expertsystem och maskininlärning tekniker till detta problem har också tagit stor uppmärksamhet från många forskare. Denna studie syftar till att diagnostisera och prognosticera bröstcancer med en maskininlärningsmetod baserad på slumpmässig skogsklassning och funktionsval teknik. Genom viktning, hålla användbara funktioner och ta bort redundanta funktioner i datauppsättningar, metoden erhölls för att lösa diagnosproblem genom att klassificera Wisconsin Bröstcancer Diagnos Dataset och för att lösa prognosproblem via klassificering Wisconsin Bröstcancer Prognostic Dataset. På dessa datauppsättningar fick vi en klassificeringsnoggrannhet på 100% i bästa fall och på omkring 99,8% i genomsnitt. Detta är mycket lovande jämfört med tidigare rapporterade resultat. Detta resultat är för Wisconsin Bröstcancer Dataset men det står att denna metod kan användas tryggt för andra bröstcancerdiagnos problem också.
Hybridiseringen mellan elimineringen av funktionsval och en maskininlärningsalgoritm baserad på Random Forrest hittades i REF.
41,970,373
Random forest classifier combined with feature selection for breast cancer diagnosis and prognostic
{'venue': None, 'journal': 'Journal of Biomedical Science and Engineering', 'mag_field_of_study': ['Medicine']}
14,954
Den största genomsnittliga avvikelsen (MMD) är en nyligen föreslagen teststatistik för två prov. Den fyrfaldiga tids komplexiteten hindrar dock i hög grad dess tillgänglighet för storskaliga tillämpningar. För att påskynda beräkningen av MMD föreslår vi i denna studie en effektiv metod som kallas FastMMD. Kärnidén med FastMMD är att på motsvarande sätt omvandla MMD med shiftinvariant-kärnor till amplitudförväntningen av en linjär kombination av sinus-komponenter baserade på Bochners teorem och Fourier-transform (Rahimi & Recht, 2007). Med fördel av provtagning av Fourier transform, FastMMD minskar tids komplexiteten för MMD kalcula-, där N och d är storleken och dimensionen av provet uppsättningen, respektive. För kärnor som är sfäriskt invarianta kan beräkningen accelereras ytterligare till O(N log d) genom att använda Fastfood-tekniken (Le et al., 2013). Den enhetliga konvergensen i vår metod har också teoretiskt bevisats i både opartiska och partiska uppskattningar. Vi har också gett en geometrisk förklaring till vår metod, nämligen ensemble av cirkulär diskrepans, vilket underlättar för oss att förstå insikten i MMD, och är hoppfull att bidra till att väcka mer omfattande mätvärden för bedömning av två prov. Experimentella resultat bekräftar att Fast-MMD är lika exakt som exakt MMD, medan med snabbare beräkningshastighet och lägre varians än de befintliga MMD approximationsmetoderna.
I Ref, till exempel, utformas en snabb metod för det specifika fallet med den största genomsnittliga avvikelsestatistik som används för tvåprovsprovet.
9,128,944
FastMMD: Ensemble of Circular Discrepancy for Efficient Two-Sample Test
{'venue': 'Neural Computation, 2015 June, Vol. 27, No. 6, Pages 1345-1372', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Medicine']}
14,955
Relation extrahering är uppgiften att hitta semantiska relationer mellan enheter från text. De senaste metoderna för relationsextraktion bygger till största delen på statistisk inlärning, och därför måste alla ta itu med val av egenskaper, vilket i hög grad kan påverka klassificeringsprestandan. I detta dokument undersöker vi systematiskt ett stort utrymme för relationsextraktion och utvärderar effektiviteten hos olika subrymder. Vi presenterar en allmän definition av funktionsytor som bygger på en grafisk representation av relationsinstanser, och utforskar tre olika representationer av relationsinstanser och särdrag av olika komplexiteter inom denna ram. Våra experiment visar att användning av endast grundläggande enhetsfunktioner i allmänhet är tillräckligt för att uppnå toppmodern prestanda, medan överinklusion av komplexa funktioner kan skada prestandan. En kombination av funktioner med olika komplexitetsnivåer och olika meningsrepresentationer, tillsammans med uppgiftsorienterad beskärning, ger bästa prestanda.
Vi utforskade systematiskt funktionsutrymmet för relationsextraktion REF.
17,069,935
A Systematic Exploration of the Feature Space for Relation Extraction
{'venue': 'Human Language Technologies 2007: The Conference of the North American Chapter of the Association for Computational Linguistics; Proceedings of the Main Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,956
Regressionstestning säkerställer ändrade program mot oavsiktliga ändringar. Att ändra verkställighetsordningen för testfall är en viktig idé för att förbättra deras effektivitet. Paradoxalt nog har många testfallsprioriteringsmetoder löst oavgjort fall med hjälp av slumpmässig urvalsmetod, och ändå har slumpmässig beställning av testfall ansetts vara ineffektiv. Befintliga enhetstester visar att adaptiv slumpmässig testning (ART) är en lovande kandidat som kan ersätta slumpmässig testning (RT). I detta dokument föreslår vi inte bara en ny familj av täckningsbaserade ART-tekniker, utan visar också empiriskt att de är statistiskt överlägsna den RT-baserade tekniken för att upptäcka fel. Dessutom är en av ART-prioriteringsteknikerna konsekvent jämförbar med några av de bästa täckningsbaserade prioriteringsteknikerna (nämligen de "kompletterande" teknikerna) och innebär ändå mycket mindre tidskostnad.
REF använde adaptivt slumpmässigt testkoncept för att underlätta prioritering av testfall.
339,917
Adaptive Random Test Case Prioritization
{'venue': '2009 IEEE/ACM International Conference on Automated Software Engineering', 'journal': '2009 IEEE/ACM International Conference on Automated Software Engineering', 'mag_field_of_study': ['Computer Science']}
14,957
Gleason score är den enskilt viktigaste prognostiska indikatorn för prostatacancer kandidater och spelar en betydande roll i behandling planering. Histopatologisk avbildning av prostatavävnad prover ger guld standard för att erhålla Gleason poäng, men den manuella tilldelningen av Gleason betyg är en arbetsintensiv och felbenägen process. Vi har utvecklat ett texturklassificeringssystem för automatisk och reproducerbar Gleason gradering. Vårt system karakteriserar texturen i bilder som tillhör en tumör grad genom att kluster extraherade filter svar vid varje pixel i texton (grundläggande texturelement). Vi har använt slumpmässiga skogar för att samla filtersvaren i textons följt av den rumsliga pyramidmatchkärnan i samband med en SVM-klassning. Vi har visat hur effektivt vårt system är när det gäller att skilja mellan Gleason graderna 3 och 4.
Khurd m.fl. REF har utvecklat ett texturklassificeringssystem för automatisk och reproducerbar Gleasonklassificering.
311,592
Computer-aided gleason grading of prostate cancer histopathological images using texton forests
{'venue': '2010 IEEE International Symposium on Biomedical Imaging: From Nano to Macro', 'journal': '2010 IEEE International Symposium on Biomedical Imaging: From Nano to Macro', 'mag_field_of_study': ['Computer Science', 'Medicine']}
14,958
Vi presenterar ett nytt förhållningssätt till automatiskt förvärv av taxonomier eller koncepthierarkier från en textkorpus. Metoden bygger på Formell Concept Analysis (FCA), en metod som främst används för analys av data, dvs. för att undersöka och behandla uttryckligen angivna uppgifter. Vi följer Harris distributionshypotes och modellerar sammanhanget för en viss term som en vektor som representerar syntaktiska beroenden som automatiskt förvärvas från textkorpus med en språklig parser. På grundval av denna kontextinformation producerar FCA en lattice som vi omvandlar till en speciell typ av partiell ordning som utgör en koncepthierarki. Metoden utvärderas genom att man jämför det resulterande begreppet hierarkier med handgjorda taxonomier för två områden: turism och finansiering. Vi jämför också direkt vårt tillvägagångssätt med hierarkisk agglomerativ klusterbildning samt med Bi-sektion-KMeans som ett exempel på en splittrande klusteralgoritm. Dessutom undersöker vi effekten av att använda olika åtgärder vikta bidraget från varje attribut samt att tillämpa en särskild utjämningsteknik för att hantera data gleshet.
Cimiano m.fl. REF utnyttjade Formell Concept Analysis (FCA) för att förvärva taxonomier från text corpus.
6,168,648
Learning Concept Hierarchies from Text Corpora using Formal Concept Analysis
{'venue': 'Journal Of Artificial Intelligence Research, Volume 24, pages 305-339, 2005', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
14,959
Cloud Radio Access Network (C-RAN) ger hög spektral och energieffektivitet prestanda, låga utgifter, och intelligenta centraliserade systemstrukturer till operatörer, som har lockat intensiva intressen i både akademi och industri. I detta dokument är ett system för hybridsamordnad multipunktsöverföring (H-CoMP) utformat för nedlänksöverföring i C-RAN och uppfyller den flexibla avvägningen mellan samarbetsvinst och fronthaulkonsumtion. Den kömedvetna makt- och hastighetstilldelningen med begränsningar av genomsnittlig fronthaulförbrukning för den fördröjningskänsliga trafiken formuleras som en oändlig horisont som delvis begränsas Markovs beslutsprocess, som tar hänsyn till både den brådskande kötillståndsinformationen och den ofullständiga kanaltillståndsinformationen vid sändare (CSIT). För att hantera förbannelsen av dimensionalitet i samband med motsvarande Bellman ekvation, den linjära approximationen av postdecision värde funktioner utnyttjas. En stokastisk gradientalgoritm presenteras för att fördela den kömedvetna kraft- och överföringshastigheten med H-CoMP, som är robust mot oförutsedd trafik anlända och osäkerhet som orsakas av den bristfälliga CSIT. För att avsevärt minska komplexiteten föreslås dessutom en online-lärandealgoritm för att uppskatta postdecisionsfunktionerna per queue och uppdatera multiplikatorerna i Lagrange. Simuleringsresultaten visar prestandavinster för de föreslagna stokastiska gradientalgoritmerna och bekräftar den asymptotiska konvergensen av den föreslagna online-läralgoritmen. Index Terms-Cloud radio access nätverk (C-RAN), fronthaul begränsning, hybrid samordnad multi-punkt överföring, kö-medveten resurs tilldelning.
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF studerade den kömedvetna energi- och hastighetstilldelningsoptimeringen för fördröjningskänslig trafik i fronthaul begränsad C-RAN.
2,894,456
Resource Allocation Optimization for Delay-Sensitive Traffic in Fronthaul Constrained Cloud Radio Access Networks
{'venue': 'IEEE Systems Journal', 'journal': 'IEEE Systems Journal', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
14,960
Abstract-A new feature selection approach som bygger på integrering av en genetisk algoritm och partikel svärm optimering föreslås. Den totala noggrannheten hos en stödvektormaskin som klassificerar valideringsprover används som ett fitnessvärde. Den nya metoden genomförs på välkända Indian Pines hyperspectral data uppsättning. Resultaten bekräftar att den nya metoden kan automatiskt välja de mest informativa funktionerna i termer av klassificering noggrannhet inom en acceptabel processtid CPU utan att kräva att antalet önskade funktioner ställs in a priori av användare. Dessutom testas nyttan av den föreslagna metoden för vägdetektering. Resultaten bekräftar att den föreslagna metoden kan skilja mellan väg- och bakgrundspixlar och presterar bättre än de andra metoder som används för jämförelse i fråga om prestandamått. Index Terms-Attribute profil, funktionsval, hybridisering av genetisk algoritm (GA) och partikel svärm optimering (PSO), hyperspektral bildanalys, vägdetektering, stöd vektor maskin (SVM) klassificerare.
Författaren har betonat att de föreslagna resultaten kunde välja de mest informativa funktioner och diskriminera mellan väg och bakgrund pixlar REF.
26,836,919
Feature Selection Based on Hybridization of Genetic Algorithm and Particle Swarm Optimization
{'venue': 'IEEE Geoscience and Remote Sensing Letters', 'journal': 'IEEE Geoscience and Remote Sensing Letters', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
14,961
Vi introducerar en ny neural arkitektur för att lära sig den villkorliga sannolikheten för en utgångssekvens med element som är diskreta polletter som motsvarar positioner i en ingångssekvens. Sådana problem kan inte hanteras trivialt genom befintliga metoder som sekvens-till-sekvens [1] och Neural Turing Machines [2], eftersom antalet målklasser i varje steg av produktionen beror på längden på indata, som är variabel. Problem såsom sortering varierande storlek sekvenser, och olika kombinatoriska optimeringsproblem tillhör denna klass. Vår modell löser problemet med variabel storlek utgående ordböcker med hjälp av en nyligen föreslagna mekanism för neural uppmärksamhet. Det skiljer sig från tidigare uppmärksamhet försök i att, i stället för att använda uppmärksamhet för att blanda dolda enheter av en kodare till en kontext vektor vid varje dekoder steg, det använder uppmärksamhet som en pekare för att välja en medlem av inmatningssekvensen som utgång. Vi kallar denna arkitektur för Pointer Net (Ptr-Net). Vi visar Ptr-Nets kan användas för att lära sig ungefärliga lösningar på tre utmanande geometriska problem - att hitta planar konvexa skrov, att beräkna Delaunay triangulations, och planar Travelling Salesman Problem - med hjälp av utbildningsexempel ensam. Ptr-Nets inte bara förbättra över sekvens-till-sekvens med indata uppmärksamhet, men också tillåta oss att generalisera till variabel storlek utdata ordböcker. Vi visar att de lärda modellerna generaliseras utöver de maximala längder de utbildats på. Vi hoppas att våra resultat av dessa uppgifter kommer att uppmuntra en bredare undersökning av neuralt lärande för diskreta problem.
Pointer nätverk är en typ av sekvenser till sekvenser neurala nätverk modeller, som initialt att användas för att lära sig ungefärliga lösningar för att ta itu med geometriska problem såsom resande säljare problem REF.
5,692,837
Pointer Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
14,962
Detta dokument fokuserar på modellering rider förfrågningar och deras variationer över plats och tid, baserat på att analysera omfattande verkliga data från en ride-sharing tjänst. Vi introducerar en grafmodell som fångar den rumsliga och temporala variabiliteten av ridförfrågningar och potentialen för ridning pooling. Vi upptäcker dessa rider begäran grafer uppvisar en välkänd egenskap som kallas "förtätning makt lag" ofta finns i verkliga grafer modellera mänskligt beteende. Vi visar mönstret av rid begäran och potentialen för ridning pooling för en stad kan karakteriseras av den förtätning faktorn i åktur begäran grafer. Tidigare verk har visat att det är möjligt att automatiskt generera syntetiska versioner av dessa grafer som uppvisar en given förtätningsfaktor. Vi presenterar en algoritm för automatisk generering av syntetisk rid begäran grafer som matchar ganska väl den förtätning faktorn för rid begäran grafer från faktiska rida begäran data.
Med hjälp av realistiska data från ride-sharing-tjänster har författarna i REF modellerat kundförfrågningar och deras variationer över serviceområde med hjälp av en graf.
3,749,555
Space-Time Graph Modeling of Ride Requests Based on Real-World Data
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
14,963
I detta dokument undersöker vi genomförbarheten av en icke-linjär modell prediktiv spårningskontroll (NMPTC) för autonoma helikoptrar. Vi formulerar en NMPTC-algoritm för planering av vägar under in- och tillståndsbegränsningar och spårning av genererade positions- och kursbanor, och implementerar en on-line optimering controller med hjälp av gradient-descent metod. Den föreslagna NMPTC-algoritmen visar överlägsen spårningsprestanda över konventionella multi-loop proportional-derivative (MLPD) styrenheter, särskilt när icke-linjäritet och koppling dominerar fordonets dynamik. Dessutom visar NMPTC enastående robusthet mot parameterosäkerhet, och indatamättnad och tillståndsbegränsningar är lätta att införliva. När kostnaden inkluderar en potentiell funktion med eventuellt rörliga hinder eller andra agenters tillståndsinformation, kan NMPTC lösa problemet med banplanering och styrning i ett enda steg. Detta utgör en lovande enstegslösning för generering och reglering av banan för RUAV, som fungerar under olika osäkerheter och begränsningar till följd av fordonens dynamik och miljöpåverkan. Beräkningsbelastningen för detta tillvägagångssätt är betydligt mindre än många befintliga modellers prediktiva algoritmer, vilket möjliggör realtidstillämpningar för autonoma helikoptrar.
Kim och Al. Ref undersökte möjligheten av en icke-linjär MPC vid kontrollen av obemannad helikopter 2002.
14,268,556
Nonlinear model predictive tracking control for rotorcraft-based unmanned aerial vehicles
{'venue': 'Proceedings of the 2002 American Control Conference (IEEE Cat. No.CH37301)', 'journal': 'Proceedings of the 2002 American Control Conference (IEEE Cat. No.CH37301)', 'mag_field_of_study': ['Computer Science']}
14,964
Informationsåldern (AoI), definierad som den tid som förflutit sedan den senaste uppdateringen genererades, är ett nyligen föreslaget mått för att mäta aktualiteten av information uppdateringar i ett nätverk. Vi anser att AoI minimering problem för ett nätverk med allmänna interferens begränsningar, och tid varierande kanaler. Vi föreslår två strategier, nämligen virtuellt queue-baserad politik och åldersbaserad politik när kanalens tillstånd är tillgängligt för nätverkets schemaläggare vid varje tidpunkt. Vi visar att den virtualqueue baserade politiken är nästan optimal, upp till en konstant additiv faktor, och den åldersbaserade politiken är som mest faktor 4 bort från optimalitet. Jämförelse med tidigare arbete, som härledde ålder optimal policy när kanalstat information inte är tillgänglig för schemaläggaren, visar en 4-faldig förbättring av ålder på grund av tillgången till kanalstat information.
Åldersoptimala schemaläggningspolicyer i ett nätverk med tidsvariationskanaler har studerats i REF, där kanalstatsinformation antas vara tillgänglig för nätverksschemaläggaren.
3,972,935
Optimizing age of information in wireless networks with perfect channel state information
{'venue': '2018 16th International Symposium on Modeling and Optimization in Mobile, Ad Hoc, and Wireless Networks (WiOpt)', 'journal': '2018 16th International Symposium on Modeling and Optimization in Mobile, Ad Hoc, and Wireless Networks (WiOpt)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
14,965
Abstract-Mobile ad hoc-nätverk (MANETS) består av en samling trådlösa mobila noder som dynamiskt utbyter data sinsemellan utan behov av fast infrastruktur eller ett trådbundet stamnät. På grund av det begränsade sändningsområdet för trådlösa nätverksnoder behövs ofta flera hopar för att en nod ska kunna utbyta information med någon annan nod i nätverket. Således är routing en avgörande fråga i utformningen av MANET. På begäran routing protokoll för mobila ad hoc-nät upptäcka och underhålla endast de nödvändiga rutterna för att minska routing overheads. De använder en översvämningsbaserad upptäcktsmekanism för att hitta rutter när så krävs. Eftersom varje vägfyndighet medför höga omkostnader och latenser, måste frekvensen av ruttfyndigheter hållas låg för att ondemand-protokollen ska vara effektiva. Den breda tillgängligheten av trådlösa enheter kräver routing protokollet bör vara skalbar. Men, eftersom storleken på nätverket ökar ondemand routing protokoll ger dålig prestanda på grund av stora routing overhead genereras medan reparera rutten avbrott. Den föreslagna multipaten routing systemet ger bättre prestanda och skalbarhet genom att beräkna flera rutter i en enda rutt upptäckt. Dessutom minskar det routing overhead genom att använda sekundära vägar. Detta system beräknar kombinationen av knutpunkter och felsäkra vägar för flera rutter och tillhandahåller alla mellanliggande noder för den primära banan med flera rutter till destinationen. Index Terms-Mobile ad hoc nätverk; Multipath routing; Misslyckas säker flera sökväg; Primär sökväg; Sekundär sökväg I.
Jaisankar och Saravanan REF har presenterat ett multipat routing system för att ge bättre prestanda och skalbarhet genom att beräkna flera rutter i en enda rutt upptäckt.
62,118,507
An Extended AODV Protocol for Multipath Routing in MANETs
{'venue': None, 'journal': 'International journal of engineering and technology', 'mag_field_of_study': ['Computer Science']}
14,966
Abstract-This paper presenterar en ny metod för att uppskatta den kontinuerliga sex graden av frihet (6-DoF) pose (3D översättning och rotation) av ett objekt från en enda RGB-bild. Metoden kombinerar semantiska nyckelpunkter som förutspås av ett konvolutionsnätverk (convnet) med en deformerbar formmodell. Till skillnad från tidigare arbete är vi agnostiska mot om objektet är texturerat eller texturlöst, eftersom convnet lär sig den optimala representationen från tillgängliga träningsbilddata. Dessutom kan metoden tillämpas på fall- och klassbaserad återvinning. Empiriskt visar vi att det föreslagna tillvägagångssättet korrekt kan återställa 6-DoF objektet poserar för både exempel och klass-baserade scenarier med en rörig bakgrund. För klassbaserade objekt utgör uppskattning, state-of-the-art noggrannhet visas på den storskaliga PASCAL3D+ datauppsättningen.
Pavlakos m.fl. REF använder semantiska keypoints för att få 6 grader av frihet (DoF) pose av objekt.
1,219,831
6-DoF object pose from semantic keypoints
{'venue': '2017 IEEE International Conference on Robotics and Automation (ICRA)', 'journal': '2017 IEEE International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
14,967
ABSTRACT Motiverad av den senaste tidens explosion av intresse runt blockkedjor, undersöker vi om de gör en bra passform för Internet of Things (IoT) sektorn. Blockchains tillåter oss att ha ett distribuerat peer-to-peer-nätverk där icke-tillförlitliga medlemmar kan interagera med varandra utan en betrodd mellanhand, på ett kontrollerbart sätt. Vi ser över hur denna mekanism fungerar och även titta på smarta kontrakt-skript som finns på blockchain som möjliggör automatisering av flerstegsprocesser. Vi flyttar sedan in i IoT domänen, och beskriver hur en blockchain-IoT kombination: 1) underlättar delning av tjänster och resurser som leder till skapandet av en marknadsplats av tjänster mellan enheter och 2) gör att vi kan automatisera på ett kryptografiskt kontrollerbart sätt flera befintliga, tidskrävande arbetsflöden. Vi påpekar också vissa frågor som bör övervägas innan införandet av en blockchain nätverk i en IoT-inställning: från transaktionsintegritet till det förväntade värdet av de digitaliserade tillgångar handlas på nätverket. Där så är tillämpligt identifierar vi lösningar och lösningar. Vår slutsats är att blockchain-IoT kombinationen är kraftfull och kan orsaka betydande omvandlingar inom flera branscher, banar väg för nya affärsmodeller och nya, distribuerade applikationer. INDEX TERMS Blockchain, distribuerade system, sakernas internet.
Inom IoT, Christidis och Devetsikiotis flytta blockchain till IoT domän REF, och beskriva en blockchain-IoT kombination.
23,397,334
Blockchains and Smart Contracts for the Internet of Things
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
14,968