src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Abstract-Several Text Categorization (TC) tekniker och algoritmer har undersökts i den begränsade forskningslitteraturen av arabiska TC. I denna forskning undersöks logistisk regression (LR) i arabiska TC. Såvitt vi vet har LR aldrig använts för arabiska TC tidigare. Experiment utförs på Aljazeera Arabic News (Alj-News) dataset. Arabisk text-förbehandling sker på denna datauppsättning för att hantera den speciella karaktären av arabisk text. Experimentella resultat av denna forskning visar att LR-klassificeringen är en konkurrenskraftig Arabisk TC-algoritm till toppmoderna algoritmer inom detta område; den har noterat en precision på 96,5 % på en kategori och över 90 % för 3 kategorier av de fem kategorierna av Alj-News dataset. När det gäller den totala prestandan har LR noterat en makrogenomsnittlig precision på 87 %, vilket motsvarar 86,33 % och F-mått på 86,5 %.
Nyligen var författaren i REF den första forskaren som testade logistisk regression (LR) på arabiska TC.
53,965,575
Arabic Text Categorization Using Logistic Regression
{'venue': None, 'journal': 'International Journal of Intelligent Systems and Applications', 'mag_field_of_study': ['Computer Science']}
13,952
I den här artikeln analyserar vi problemet med akustisk spännvidd mellan sensornoder i en undervattensmiljö. Undervattensmediet antas bestå av flera isograderande ljudhastighetsprofilskikt (SSP) där ljudhastigheten i varje lager är linjärt relaterad till djupet. Dessutom kan varje sensornod mäta sitt djup och kan utbyta denna information med andra noder. Enligt dessa antaganden visar vi först hur problemet med lokalisering under vatten kan omvandlas till det traditionella områdesbaserade markbundna lokaliseringsproblemet när djupinformationen om noderna är känd på förhand. För det andra relaterar vi den parvisa tiden för flygning (ToF) mätningar mellan noderna till deras positioner. Sedan föreslår vi en ny algoritm för ett undervattensmedium. Den föreslagna algoritmen tar hänsyn till reflektioner från havsbotten och havsytan. Vi kommer att visa att även utan några reflektioner, den överförda signalen kan färdas genom mer än en väg mellan två givna noder. Den föreslagna algoritmen analyserar dem och väljer den snabbaste (första ankomstvägen) baserat på den uppmätta ToF och nodernas djupmätningar. Slutligen, för att utvärdera prestandan hos den föreslagna algoritmen kör vi flera simuleringar och jämför resultaten med andra befintliga algoritmer.
I REF föreslås en ny mätmetod under antagande av isogradient ljudhastighetsprofil (SSP), dvs. ljudhastigheten är linjärt relaterad till djupet i varje SSP-skikt.
94,098
Ranging in an Underwater Medium with Multiple Isogradient Sound Speed Profile Layers
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Computer Science', 'Sociology']}
13,953
Abstrakt. Med tanke på en rumslig plats och en uppsättning nyckelord, returnerar en top-k rumslig sökordsfråga k bästa spatio-textual objekt rankad efter deras närhet till frågeplatsen och relevans för frågeorden. Det finns många program som hanterar enorma mängder geotaggade data, såsom Twitter och Flickr, som kan dra nytta av denna fråga. Tyvärr kräver de senaste metoderna inte försumbara bearbetningskostnader som uppstår under lång svarstid. I det här dokumentet föreslår vi ett nytt index för att förbättra prestandan hos top-k rumsliga sökordsfrågor som heter Spatial Inverted Index (S2I). Vårt index kartlägger varje distinkt term till en uppsättning objekt som innehåller termen. Objekten lagras olika beroende på termens dokumentfrekvens och kan hämtas effektivt i fallande ordning av nyckelordsrelevans och rumslig närhet. Dessutom presenterar vi algoritmer som utnyttjar S2I för att behandla top-k rumsliga sökord frågor effektivt. Slutligen visar vi genom omfattande experiment att vår strategi överträffar den senaste tekniken när det gäller uppdaterings- och frågekostnad.
För top-k rumsliga sökordsfrågor, Rocha-Junior et al. REF föreslår ett nytt rumsligt index som heter Spatial Inverted Index (S2I för kort) för att öka effektiviteten i sökningen.
13,559,844
Efficient processing of top-k spatial keyword queries
{'venue': 'In SSTD,2011', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,955
Vi förutspår populariteten av korta meddelanden som kallas tweets skapas i micro-bloggning webbplats känd som Twitter. Vi mäter populariteten av en tweet av tidsserie vägen för dess retweets, vilket är när folk vidarebefordrar tweeten till andra. Vi utvecklar en probabilistisk modell för utvecklingen av retweets med hjälp av en Bayesian strategi, och bildar förutsägelser med endast observationer om retweet tider och det lokala nätverket eller "graf" struktur av retweeters. Vi får bra steg framåt prognoser och förutsägelser av det slutliga totala antalet retweets även när endast en liten del (dvs. mindre än en tiondel) av retweet vägen observeras. Detta översätter till goda förutsägelser inom några minuter efter att en tweet har publicerats, och har potentiella konsekvenser för förståelsen av spridningen av bredare idéer, memes eller trender i sociala nätverk.
En Bayesian strategi föreslås av REF för att förutsäga antalet retweetar av en tweet enligt två funktioner: antal anhängare av retweeters och djupet av retweeter i retweet träd.
3,631,335
A Bayesian approach for predicting the popularity of tweets
{'venue': 'Annals of Applied Statistics 2014, Vol. 8, No. 3, 1583-1611', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics', 'Mathematics']}
13,956
Abstract-This paper föreslår ett nytt tillvägagångssätt för att förenkla de tvådimensionella slumpmässiga gångmodellerna som fångar rörligheten för mobila användare i personkommunikationsnätverk (PCS). Analytiska modeller föreslås för de nya slumpmässiga promenaderna. För ett PCS-nätverk med hexagonal konfiguration minskar vårt tillvägagångssätt tillståndet för den tvådimensionella slumpmässiga vandringen från (3 2 + 3 5) till ( + 1) 2, där är skikten i ett kluster. För en mesh konfiguration, minskar vår strategi tillstånden från (2 2 2 + 1) till ( 2 + 2 + 4) 4 om är jämn och till ( 2 + 2 + 5) 4 om är udda. Simuleringsförsök genomförs för att validera de analytiska modellerna. Resultaten visar att felen mellan analys- och simuleringsmodellerna ligger inom 1 %. Tre applikationer (dvs. mikrocell/makrocellkonfiguration, avståndsbaserad platsuppdatering och GPRS mobilitetshantering för data routing) används för att visa hur vår nya modell kan användas för att undersöka PCS-nätverkens prestanda.
Ian F. Akyildiz REF et al har föreslagit en förenklad slumpmässig gångmodell för sexkantig cellkonfiguration där sannolikhetstillstånd ger prestanda för modellen.
2,805,042
A new random walk model for PCS networks
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
13,957
I det här dokumentet studerar vi problemet o f 3D object de tection från stereobilder, där den viktigaste utmaningen är hur man effektivt kan använda stereoinformation. Olika från tidigare metoder med hjälp av pixel -nivå 3D objektdetektion syftar till att lokalisera amodal 3D begränsande rutor av objekt av specifika klasser i 3D utrymme [,, 18,29]. Detektionsuppgiften är relativt enklare [,, 15] när aktiva 3D-skanningsdata tillhandahålls. De aktiva avsökningsdata är dock av hög kostnad och begränsad skalbarhet. Vi tar itu med problemet med 3D-detektering från passiva bilddata, som kräver endast billig hårdvara, anpassa sig till olika skalor av objekt, och erbjuder fruktbara semantiska funktioner. Monocular 3D-detektion med en enda RGB-bild är mycket illa placerad på grund av den tvetydiga kartläggningen från 2D-bilder till 3D-geometrier, men fortfarande lockar forskning ef forts [, 3 ] på grund av sin enkelhet i design. Att lägga till fler ingångsvyer kan ge mer information för 3D-resonemang, vilket allmänt demonstreras i den traditionella multi-view geometrin [ ] området genom att hitta täta patch-nivåkorrespondenser för punkter och sedan uppskatta deras 3D platser genom triangulation. De geometriska meth ods hanterar patch-nivå punkter med lokala funktioner, medan inga semantiska ledtrådar på objektnivå beaktas. Stereo data med par av bilder är mer lämpliga för 3D-detektering, eftersom skillnaderna mellan vänster och höger bild kan avslöja spacial varians, särskilt i djup dimension. Medan omfattande arbete [, 2', ] har gjorts på djupt lärande baserad stereo matchning, är deras huvudsakliga fokus på pixel nivå snarare än objektnivå. 3DOP [ ] använder stereobilder för 3D-objektdetektering och uppnår toppmoderna resultat. Men senare visar vi att vi kan få resultat av jämförelser med hjälp av endast en monokulär bild, genom att placera 3D-ankare på rätt sätt och utvidga det regionala förslagets nettoarbete (RPN) [ ] till 3D. Därför är vi motiverade att på nytt överväga hur man bättre kan utnyttja potentialen hos stereobilder för exakt 3D-objektdetektering. I detta dokument föreslår vi stereon Triangulation Learning Network (TLNet) för 3D-objektdetektering från stereobilder, som är fri från beräkning pixel-nivå djupkartor och kan enkelt integreras i baslinje monoc iular detektor. Nyckelidén är att använda en 3D-ankarlåda för att explicit konstruera geometriska korrespondenser på objektnivå av dess två projektioner på ett par stereobilder, från vilka nätverket lär sig att triangulera ett målobjekt nära ankaret. I det föreslagna TLNet introducerar vi en 978-7281-3293-
TLNet REF introducerar ett triangulationsbaserat lärnätverk för att para ihop identifierade intresseregioner mellan vänster och höger bild.
174,798,054
Triangulation Learning Network: From Monocular to Stereo 3D Object Detection
{'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
13,958
Sammanfattning av denna webbsida: Handskriven teckenigenkänning är alltid ett gränsområde för forskning inom området mönsterigenkänning och bildbehandling och det finns en stor efterfrågan på OCR till hands skrivna dokument. Även om tillräckliga studier har utförts i utländska manus som kinesiska, japanska och arabiska tecken, bara ett fåtal verk kan spåras för handskrivna tecken erkännande av indiska manus särskilt för sydindiska manus. Detta papper ger en översikt över handskrivna teckenigenkänning offline i South Indian Scripts, nämligen Malayalam, Tamil, Kannada och Telungu.
REF har presenterat en granskning av handskrivna teckenigenkänning av sydindiska skript.
2,886,931
Handwritten Character Recognition of South Indian Scripts: A Review
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
13,959
Hälso- och sjukvård på nätet är en värdefull informationskälla för patienter och läkare. Sådana användargenererade resurser plågas dock ofta av felaktigheter och felaktig information. I detta arbete föreslår vi en metod för att automatiskt fastställa trovärdigheten hos användargenererade medicinska uttalanden och trovärdigheten hos deras författare genom att utnyttja språkliga signaler och avlägsna övervakning från expertkällor. I detta syfte introducerar vi en probabilistisk grafisk modell som tillsammans lär användaren pålitlighet, uttalande trovärdighet, och språk objektivitet. Vi tillämpar denna metod för att extrahera sällsynta eller okända biverkningar av medicinska läkemedel - detta är ett av de problem där storskaliga icke-expert data har potential att komplettera expert medicinsk kunskap. Vi visar att vår metod på ett tillförlitligt sätt kan extrahera biverkningar och filtrera bort falska påståenden, samtidigt som vi identifierar pålitliga användare som sannolikt kommer att bidra med värdefull medicinsk information.
Andra forskare har studerat hur man automatiskt etablera trovärdigheten hos användaren genererade medicinska uttalanden genom att analysera språkliga ledtrådar REF.
9,924,032
People on drugs: credibility of user statements in health communities
{'venue': "KDD '14", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
13,960
Ett trådlöst sensornätverk (WSN) består av ett stort antal sensornoder som är otillräckliga i energi, lagring och processkraft. En av de viktigaste uppgifterna för sensornoder är insamling av data och vidarebefordrande av insamlade data till basstationen (BS). Nätverkets livslängd blir därför de viktigaste kriterierna för en effektiv utformning av datainsamlingssystemen i WSN. I detta dokument införs ett energieffektivt LEACH-protokoll (EE-LEACH) för insamling av uppgifter. Det erbjuder en energieffektiv routing i WSN baserat på den effektiva dataensemblen och optimal klusterbildning. I detta system väljs ett klusterhuvud för varje kluster för att minimera energiavledning av sensornoder och för att optimera resursutnyttjandet. Den energieffektiva routingen kan erhållas med noder som har den maximala restenergin. Därför, de högsta restenergin noder väljs för att vidarebefordra data till BS. Det hjälper till att ge bättre paketleveransförhållande med mindre energiutnyttjande. De experimentella resultaten visar att den föreslagna EE-LEACH ger bättre prestanda än det befintliga energibalanserade routingprotokollet (EBRP) och LEACH-protokollet när det gäller bättre paketleveransförhållande, mindre end-to-end fördröjning och energiförbrukning. Det är uppenbart att den föreslagna EE-LEACH kan förbättra nätverkets livslängd.
Den sensoriska noden med den maximala restenergin kommer att väljas som klusterhuvudet i nästa omgång för att vidarebefordra data till diskbänk noden REF.
34,294,244
EE-LEACH: development of energy-efficient LEACH Protocol for data gathering in WSN
{'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']}
13,961
Abstract-Wireless sensor-actuator nätverk vinner mark som kommunikationsinfrastruktur för processövervakning och kontroll. Industriella tillämpningar kräver en hög grad av tillförlitlighet och realtidsgarantier inom kommunikation. Eftersom trådlös kommunikation är känslig för transmissionsfel i industriella miljöer, antar industriella trådlösa standarder som WirelessHART tillförlitliga grafrouting för att hantera transmissionsfel genom retransmissioner och ruttmångfald. Även om dessa mekanismer är av avgörande betydelse för tillförlitlig kommunikation innebär de stora utmaningar när det gäller att analysera hur väl realtidsflödena fungerar. I detta dokument presenteras den första analysen av förseningar i värsta fall för periodiska realtidsflöden under tillförlitlig grafplanering. Den föreslagna analysen kan användas för att snabbt bedöma om realtidsflöden kan schemaläggas med stränga krav på både tillförlitlighet och latens. Vi har utvärderat vår schemaläggningsanalys mot experimentella resultat på en trådlös testbädd med 69 noder samt simuleringar. Både experimentella resultat och simuleringar visar att våra fördröjningsgränser är säkra och möjliggör effektiva schemaläggningstester under tillförlitlig grafrouting.
Saifullah m.fl. I REF presenteras den första analysen av förseningar från början till slut för periodiska realtidsflöden under tillförlitlig diagramplanering.
289,777
Schedulability Analysis under Graph Routing in WirelessHART Networks
{'venue': '2015 IEEE Real-Time Systems Symposium', 'journal': '2015 IEEE Real-Time Systems Symposium', 'mag_field_of_study': ['Computer Science']}
13,962
Det senaste arbetet med att besvara frågor på öppen domän förutsätter en stark övervakning av de stödjande bevisen och/eller antar ett system för informationshämtning i blackbox (IR) för att få fram beviskandidater. Vi hävdar att båda är suboptimala, eftersom guldbevis inte alltid finns tillgängliga, och QA skiljer sig i grunden från IR. Vi visar för första gången att det är möjligt att gemensamt lära sig retriever och läsare från frågesvarssträngpar och utan något IR-system. I denna inställning behandlas bevishämtning från hela Wikipedia som en latent variabel. Eftersom detta är opraktiskt att lära sig från grunden, pre-trainerar vi retriever med en Inverse Cloze Task. Vi utvärderar på öppna versioner av fem QA-datauppsättningar. På dataset där frågeställaren redan vet svaret är ett traditionellt IR-system som BM25 tillräckligt. På dataset där en användare verkligen söker ett svar visar vi att inlärd hämtning är avgörande, överträffar BM25 med upp till 19 poäng i exakt matchning.
OQA, till exempel, REF visar att det är möjligt att med framgång modellera dessa uppgifter gemensamt.
173,990,818
Latent Retrieval for Weakly Supervised Open Domain Question Answering
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
13,963
State-of-the-art ord inbäddningar, som ofta utbildas i säck-of-words (BOW) sammanhang, ger en hög kvalitet representation av aspekter av semantik av substantiv. Men deras kvalitet minskar avsevärt för uppgiften att verb likhet förutsägelse. I detta papper visar vi att med hjälp av symmetriska mönster kontexter (SPs, t.ex., "X och Y") förbättrar ord 2vek verb likhet prestanda med upp till 15% och är också avgörande för adjektiv likhet förutsägelse. De oövervakade SP-kontexterna är till och med överlägsna en mängd olika beroendekontexter som extraheras med hjälp av en övervakad beroendetolk. Dessutom observerar vi att SP och beroendesamordning sammanhang (Coor) fånga en liknande typ av information, och visar att Coor sammanhang är överlägsen andra beroende sammanhang inklusive uppsättningen av alla beroende sammanhang, även om de fortfarande är underlägsna SP. Slutligen finns det betydligt färre SP sammanhang jämfört med alternativa representationer, vilket leder till en massiv minskning av utbildningstiden. På en 8G ord corpus och en 32 kärna maskin, SP modellen tränar på 11 minuter, jämfört med 5 och 11 timmar med BOW respektive alla beroende sammanhang.
REF använde mönsterkontexter för att uppskatta inbäddade ord, vilket visar på bättre resultat av ordlikhet jämfört med påse-of-word sammanhang.
16,557,236
Symmetric Patterns and Coordinations: Fast and Enhanced Representations of Verbs and Adjectives
{'venue': 'HLT-NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,964
Abstrakt. Denna artikel studerar märkningsscheman för vertex konnektivitet funktion på allmänna grafer. Vi anser att problemet med att tilldela korta etiketter till noderna i någon n-node graf är ett sådant sätt att med tanke på etiketter på två noder u och v, man kan bestämma om u och v är k-vertex ansluten i G, det vill säga, om det finns k vertex disjoint banor som ansluter u och v. Denna artikel fastställer en övre gräns för k 2 log n på antalet bitar som används i en etikett. Den bästa tidigare övre gränsen för etikettstorleken för ett sådant märkningsschema är 2 k log n.
Det vertex-anslutningsmärkningssystem som beskrivs i REF är det mest relaterade till vårt sammanhang.
1,356,626
Labeling schemes for vertex connectivity
{'venue': 'TALG', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
13,965
De flesta tidigare undersökningar om automatisk talscoring har fokuserat på begränsat, förutsägbart tal. För automatisk poängsättning av obegränsat spontant tal har talfärdigheter utvärderats främst på aspekter av uttal, fluens, ordförråd och språkanvändning men inte på aspekter av innehåll och aktualitet. I detta dokument undersöker vi funktioner som representerar riktigheten i innehållet i ett talat svar. Innehållsfunktioner genereras med hjälp av tre likhetsåtgärder, inklusive en lexikal matchningsmetod (Vector Space Model) och två semantiska likhetsåtgärder (latent semantisk analys och punktvis ömsesidig information). Alla funktioner uppvisar måttligt höga korrelationer med mänskliga färdigheter poäng på mänskliga tal transkriptioner. Korrelationerna minskar något på grund av igenkänningsfel när de utvärderas på utmatningen av ett automatiskt taligenkänningssystem; men den ytterligare användningen av ordkonfidenspoäng kan uppnå korrelationer på en liknande nivå som för mänskliga transkriptioner.
På senare tid har Ref använt ett liknande tillvägagångssätt vid automatisk talscoring; de mätte likheten med hjälp av tre likhetsåtgärder, inklusive en lexikal matchningsmetod (Vector Space Model) och två semantiska likhetsåtgärder (Latent Semantic Analysis and Pointwise Mutual Information).
17,595,858
Exploring Content Features for Automated Speech Scoring
{'venue': 'NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,966
I detta dokument presenterar vi en konsolideringsmetod som bygger på en ny representation av 3D-punktuppsättningar. Den viktigaste idén är att öka varje ytpunkt till en djup punkt genom att associera den med en inre punkt som finns på meso-skelettet, som består av en blandning av skelettkurvor och ark. De djupa punkterna representation är ett resultat av en gemensam optimering tillämpas på båda ändarna av de djupa punkterna. Optimeringsmålet är att jämnt fördela ändpunkterna över ytan och meso-skelettet, så att de djupa punktorienteringarna överensstämmer med ytans normalvärden. Optimeringen konvergerar där de inre punkterna bildar ett sammanhängande meso-skelett, och ytpunkterna konsolideras med de saknade regionerna avslutade. Styrkan i denna nya representation beror på att den består av både lokal och icke-lokal geometrisk information. Vi visar fördelarna med de djupa punkter konsolidering teknik genom att använda den för att konsolidera och komplett bullriga punkt-provgeometri med stora saknade delar.
Senare, Wu et al. I Ref föreslogs en konsolideringsmetod för att fylla stora hål och komplettera saknade regioner genom att införa en ny djup punktrepresentation.
16,862,915
Deep points consolidation
{'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,967
Alla länder står inför ett ständigt växande behov av ständig vård och stöd till deras funktionshindrade och äldre befolkningar. Under de senaste 30 åren har antalet européer över 60 år ökat med omkring 50 procent och utgör nu mer än 25 procent av befolkningen. Inom 20 år uppskattar experter att denna procentandel kommer att öka till en tredjedel av befolkningen, eller mer än 200 miljoner människor. 1 Studier i andra delar av världen visar liknande tendenser. I USA är människor över 65 år det snabbast växande segmentet av befolkningen; 2020 kommer de att representera ungefär 1 av 6 medborgare. Dessutom kräver många över 85 personer kontinuerlig övervakning och daglig vård. Att hitta effektivare sätt att ge vård till äldre och funktionshindrade har blivit en stor utmaning för forskarsamhället. 1 Att skapa säkra, diskreta och anpassningsbara miljöer för övervakning och optimering av hälso- och sjukvården kommer att bli avgörande inom en snar framtid. Nyligen har forskare börjat utforska multiagentsystem och arkitekturer för att skapa intelligenta övervakningssystem. Dessa intelligenta system syftar till att stödja äldre och Alzheimers patienter i alla aspekter av vardagen, förutsäga potentiella farliga situationer och leverera fysiskt och kognitivt stöd. I kombination med RFID-, Wi-Fi-teknik och handhållna enheter erbjuder sådana multiagentsystem många nya möjligheter och har gett upphov till nya områden som syftar till att integrera distribuerade mjukvaruapplikationer i vårt dagliga liv. Ett sådant område är miljöintelligens, som föreslår en ny interaktionsmodell där utvecklare anpassar teknik till människor och deras sammanhang 1 och erbjuder användare enkla, naturliga och smidiga systeminteraktioner. Ambient intelligences mål är att utveckla intelligenta, intuitiva system och gränssnitt som allmänt kan känna igen och svara på användarnas behov. För att uppnå detta måste utvecklarna tillhandahålla allestädes närvarande beräknings- och kommunikationskapacitet, fokusera på användarnas behov under utvecklingen och skapa tekniskt komplexa miljöer i medicinska, inhemska, akademiska och andra sammanhang. Med hjälp av dessa krav har vi utvecklat Geriatric Ambient Intelligence, en intelligent miljö som integrerar multiagentsystem, mobila enheter, RFID- och Wi-Fi-teknik för att underlätta hantering och kontroll av äldreboenden. GerAmis kärna är geriatrisk agent (GerAg), en deliberativ agent som innehåller en fallbaserad planeringsmekanism (CBP) för att optimera arbetsscheman och tillhandahålla aktuella patient- och anläggningsdata. Vi har framgångsrikt implementerat en systemprototyp på en vårdanläggning för Alzheimerpatienter. • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • •
Multiagentsystem används också i GerAmi, en AMI-miljö för att tillhandahålla vård och stöd till äldre människor som är starkt beroende av RFID- och Wi-Fi-teknik REF.
9,242,151
GerAmi: Improving Healthcare Delivery in Geriatric Residences
{'venue': 'IEEE Intelligent Systems', 'journal': 'IEEE Intelligent Systems', 'mag_field_of_study': ['Computer Science']}
13,968
I verkliga världen crowd counting applikationer varierar crowd densities kraftigt i rumsliga och timliga domäner. En detektion baserad beräkningsmetod kommer att uppskatta folkmassor exakt i låg densitet scener, medan dess tillförlitlighet i överbelastade områden är nedgraderad. En regressionsbaserad metod, å andra sidan, fångar den allmänna densitetsinformationen i trånga regioner. Utan att veta var varje person befinner sig, tenderar det att överskatta antalet i områden med låg densitet. Att uteslutande använda någon av dem är således inte tillräckligt för att hantera alla typer av scener med varierande densiteter. För att ta itu med denna fråga, ett nytt end-to-end crowd counting ramverk, som heter DecideNet (DEteCtIon och Density Estimation Network) föreslås. Den kan adaptivt bestämma det lämpliga beräkningsläget för olika platser på bilden baserat på dess verkliga densitetsförhållanden. DecideNet börjar med att uppskatta folkmassans densitet genom att generera detekterings- och regressionsbaserade densitetskartor separat. För att fånga oundviklig variation i densiteter innehåller den en uppmärksamhetsmodul, som är avsedd att på ett anpassningsbart sätt bedöma tillförlitligheten hos de två typerna av skattningar. Den slutliga folkmassan räknas med ledning av uppmärksamhetsmodulen för att anta lämpliga uppskattningar från de två typerna av densitetskartor. Experimentella resultat visar att vår metod uppnår toppmoderna prestanda på tre utmanande crowd counting dataset.
En hybridmetod föreslås i REF som innehåller både regressions- och detektionsbaserad räkning och anpassar sig till det lämpliga beräkningsläget för olika bildplatser.
3,740,753
DecideNet: Counting Varying Density Crowds Through Attention Guided Detection and Density Estimation
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
13,969
Det finns idag ett överflöd av standarder som rör utveckling och certifiering av järnvägssäkerhetskritiska system. De rekommenderar användning av olika tekniker för att beskriva systemkrav och för att följa säkerhetsstrategier. Ett problem som delas av standarder är att de bara föreskriver vad som bör göras eller användas, men de ger ingen vägledning om hur rekommendationer kan uppfyllas. Syftet med detta dokument är att undersöka en metod för att modellera riktlinjer för att bygga certifikatifierbara UML-modeller som tillgodoser behoven och rekommendationerna i järnvägsstandarder. I dokumentet kommer man att undersöka några av de viktigaste uppgifter som är typiska för utvecklingsriktlinjerna och belysa praktiska steg för att uppnå dessa uppgifter.
Till exempel Ossami et al. REF valde ut en undergrupp av UML och undersökte en metod för att modellera riktlinjer för att bygga certifikatifierbara modeller enligt järnvägsstandarder.
38,282,851
A Method to Model Guidelines for Developing Railway Safety-Critical Systems With Uml.
{'venue': 'ICSOFT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,970
Samverkansfiltrering är ett viktigt ämne inom datautvinning och har i stor utsträckning använts i rekommendationssystem. I detta dokument föreslog vi en enhetlig modell för samarbetsfiltrering baserad på grafen regulariserad viktad icke-negativ matris factorization. I vår modell är två grafer konstruerade på användare och objekt, som utnyttjar den interna informationen (t.ex. information om kvarteret i matrisen för användarobjekt) och extern information (t.ex. innehållsinformation såsom användarens yrke och objektets genre, eller annan typ av kunskap såsom socialt förtroendenätverk). Den föreslagna metoden ärver inte bara fördelarna med modellbaserad metod, utan äger också fördelarna med minnesbaserad metod som beaktar granninformationen. Dessutom har den möjlighet att använda innehållsinformation och all ytterligare information om användare, t.ex. socialt förtroendenätverk. På grund av användningen av dessa interna och externa uppgifter, kan den föreslagna metoden hitta mer tolkningsbara lågdimensionella representationer för användare och objekt, vilket är till hjälp för att förbättra rekommendationens noggrannhet. Experimentella resultat på referenssamverkansfiltreringsdata visar att de föreslagna metoderna överträffar toppmoderna samarbetsfiltreringsmetoder mycket.
Det är allt jag har att säga till om. al REF föreslog en enhetlig modell för CF baserad på grafens regulariserade viktade icke-negativa matrisfaktorisering.
14,481,504
Collaborative Filtering: Weighted Nonnegative Matrix Factorization Incorporating User and Item Graphs
{'venue': 'SDM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,971
Abstract-I flera multimål spårning program, ett mål kan returnera mer än en mätning per mål och samverkande mål kan returnera flera sammanslagna mätningar mellan mål. Befintliga algoritmer för spårning och databindning, som ursprungligen tillämpades på radarspårning, hanterar inte dessa typer av mätningar på ett tillfredsställande sätt. Här introducerar vi en probabilistisk modell för att interagera med mål som behandlar båda typerna av mätningar samtidigt. Vi tillhandahåller en algoritm för ungefärlig slutledning i denna modell med hjälp av en Markov kedja Monte Carlo (MCMC)-baserad hjälpvariabel partikelfilter. Vi Rao-Blackwellize Markov kedjan för att eliminera provtagning över den kontinuerliga tillstånd utrymme mål. Ett viktigt bidrag av detta arbete är användningen av sparsamt minst kvadrater uppdatering och neddatering tekniker, vilket avsevärt minskar beräkningskostnaden per iteration av Markov kedjan. Dessutom, när de kombineras med en enkel heuristisk, de gör det möjligt för algoritmen att korrekt fokusera beräkningen på att interagera mål. Vi inkluderar experimentella resultat på en utmanande simuleringssekvens. Vi testar algoritmens noggrannhet med hjälp av två sensormodaliteter, video- och laserområdesdata. Vi visar också algoritmen uppvisar realtidsprestanda på en konventionell PC.
REF föreslår ett Rao-Blackwelliserat MCMC-baserat partikelfilter i realtid där associationer provtas av en Markov-kedja.
553,177
MCMC Data Association and Sparse Factorization Updating for Real Time Multitarget Tracking with Merged and Multiple Measurements
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
13,972
Abstract-Tanken att den rent fenomenologiska kunskap som vi kan extrahera genom att analysera stora mängder data kan vara användbar inom sjukvården verkar motsäga VPH-forskares önskan att bygga detaljerade mekanistiska modeller för enskilda patienter. Men i praktiken är ingen modell någonsin helt fenomenologisk eller helt mekanistisk. Vi föreslår i detta ställningstagande att big data analytics framgångsrikt kan kombineras med VPH-teknik för att producera robusta och effektiva Silico medicinlösningar. För att kunna göra detta måste stordatatekniken vidareutvecklas för att klara av vissa särskilda krav som följer av denna tillämpning. Sådana krav är: arbete med känsliga data; analys av komplexa och heterogena datautrymmen, inklusive icke-textuell information; distribuerad datahantering under säkerhets- och prestandabegränsningar; specialiserad analys för att integrera bioinformatik och systembiologisk information med kliniska observationer på vävnads-, organ- och organismvågar; och specialiserad analys för att definiera det "fysiologiska kuvertet" under varje patients dagliga liv. Dessa domänspecifika krav tyder på ett behov av riktad finansiering, där stordatateknik för Silico medicin blir forskningsprioritering. Index Terms-Big data, hälso-och sjukvård, virtuell fysiologisk människa.
Med hjälp av big data kan kunskapen från den stora mängden medicinska data bidra till att förbättra datahanteringen med säkerhets- och prestandabegränsningar REF.
14,710,821
Big Data, Big Knowledge: Big Data for Personalized Healthcare
{'venue': 'IEEE Journal of Biomedical and Health Informatics', 'journal': 'IEEE Journal of Biomedical and Health Informatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
13,973
Bröstskada segmentering i magnetisk resonans (MR) bilder är en av de viktigaste delarna av kliniska diagnostiska verktyg. Pixelklassificeringsmetoder har ofta använts i bildsegmentering med två övervakade och oövervakade metoder fram till nu. Övervakade segmenteringsmetoder leder till hög noggrannhet, men de behöver en stor mängd märkta data, vilket är svårt, dyrt och långsamt att få fram. Å andra sidan behöver oövervakade segmenteringsmetoder inga förkunskaper och leder till låga prestanda. Men semi-övervakad inlärning som använder inte bara ett fåtal märkta data, men också en stor mängd omärkta data lovar högre noggrannhet med mindre ansträngning. I detta dokument föreslår vi ett nytt interaktivt halvövervakat tillvägagångssätt för segmentering av misstänkta lesioner i bröst MRI. Med hjälp av en lämplig klassificering i detta tillvägagångssätt har en viktig roll i dess prestanda; i detta dokument, presenterar vi en semiövervakad algoritm förbättrad självträning (IMPST) som är en förbättrad version av självträning metod och öka segmentering noggrannhet. Experimentella resultat visar att prestanda av segmentering i detta tillvägagångssätt är högre än övervakade och oövervakade metoder såsom K närmaste grannar, Bayesian, Support Vector Machine, och Fuzzy c-Means.
En semi-övervakad självträningsalgoritm föreslogs i REF att segmentera misstänkta lesioner i bilder av magnetisk resonans (MRI), där den visade överlägsen segmentering över andra populära övervakade och oövervakade metoder.
898,475
IMPST: A new interactive self-training approach to segmentation suspicious lesions in breast MRI
{'venue': 'Journal of Medical Signals and Sensors', 'journal': 'Journal of Medical Signals and Sensors', 'mag_field_of_study': ['Medicine', 'Computer Science']}
13,974
Vi föreslår en ny idé om säker flerpartsberäkning med hjälp av en beräkningskraftig men opålitlig "moln" server. I detta begrepp att vi kallar på-the-fly multipart beräkning (MPC), molnet kan icke-interaktivt utföra godtyckliga, dynamiskt valda beräkningar på data som tillhör godtyckliga uppsättningar av användare som valts on-the-fly. Alla användarens indata och mellanliggande resultat skyddas från att snoka av molnet samt andra användare. Detta utökar standardbegreppet för fullt homomorfisk kryptering (FHE), där användare bara kan anlita molnets hjälp med att utvärdera funktioner på sina egna krypterade data. I on-the-fly MPC, varje användare är involverad endast när initialt ladda upp sina (krypterade) data till molnet, och i en slutlig utdata dekrypteringsfas när utgångar avslöjas; komplexiteten i båda är oberoende av den funktion som beräknas och det totala antalet användare i systemet. När användare laddar upp sina data behöver de inte i förväg bestämma vilken funktion som ska beräknas, eller vem de ska beräkna med; de behöver bara retroaktivt godkänna de så småningom valda funktionerna och på vilka data funktionerna utvärderades. Detta begrepp är kvalitativt det bästa möjliga i att minimera interaktion, eftersom användarnas interaktion i dekrypteringsstadiet är oundviklig: vi visar att ta bort det skulle innebära generisk program obfuscation och är därmed omöjligt. Våra bidrag är tvåfaldiga: 1. Vi visar hur on-the-fly MPC kan uppnås med hjälp av en ny typ av krypteringssystem som vi kallar multikey FHE, som kan fungera på ingångar krypterade under flera, orelaterade nycklar. En chiffertext som är resultatet av en multinyckelutvärdering kan gemensamt dekrypteras med hjälp av hemliga nycklar för alla användare som deltar i beräkningen. 2. Utgångspunkten är följande: Vi konstruerar ett multikey FHE system baserat på NTRU, en mycket effektiv offentlig nyckel kryptering system föreslås Tillstånd att göra digitala eller hårda kopior av hela eller en del av detta arbete för personligt eller klassrum användning beviljas utan avgift, förutsatt att kopior inte görs eller distribueras för vinst eller kommersiella fördelar och att kopior bär detta meddelande och den fullständiga hänvisning på första sidan. För att kopiera på annat sätt, för att återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. På 1990-talet. Det var tidigare inte känt hur man gör NTRU helt homomorphic även för en enda part. Vi ser konstruktionen av (multikey) FHE från NTRU kryptering som ett viktigt bidrag av oberoende intresse. Även om omvandlingen till ett helt homomorft system försämrar NTRU:s effektivitet något anser vi att detta system är en ledande kandidat till ett praktiskt FHE-system.
För att förbättra effektiviteten hos MPC i samband med cloud computing har flera varianter av MPC föreslagits, såsom on-the-fly MPC REF och molnstödd MPC.
1,520,451
On-the-fly multiparty computation on the cloud via multikey fully homomorphic encryption
{'venue': "STOC '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,975
För att uppnå säkerhet i trådlösa sensornätverk är det viktigt att kunna kryptera och autentisera meddelanden som skickas bland sensornoder. Nycklarna för kryptering och autentisering måste avtalas genom att kommunicera noder. På grund av resursbegränsningar är det icke-trivialt att uppnå en sådan nyckelöverenskommelse i trådlösa sensornätverk. Många viktiga avtalssystem som används i allmänna nätverk, såsom Diffie-Hellman och offentliga nyckelbaserade system, är inte lämpliga för trådlösa sensornätverk. Pre-distribution av hemliga nycklar för alla par av noder är inte genomförbart på grund av den stora mängden minne som används när nätverksstorleken är stor. För att lösa det viktigaste predistributionsproblemet har två eleganta strategier före distribution nyligen föreslagits [11, 7]. I detta dokument föreslår vi ett nytt viktigt system för förhandsdistribution, som avsevärt förbättrar nätets motståndskraft jämfört med de befintliga systemen. Vårt schema uppvisar en trevlig tröskel egendom: när antalet komprometterade noder är mindre än tröskeln, sannolikheten för att andra noder än dessa komprometterade noder påverkas är nära noll. Denna önskvärda egenskap sänker den initiala payoffen av mindre skala nätöverträdelser till en *
I REF presenteras ett program för förhandsdistribution av Blom som syftar till att förbättra nätets förmåga att fånga nod.
9,252,244
A pairwise key pre-distribution scheme for wireless sensor networks
{'venue': "CCS '03", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,976
Abstract-Constraated kortaste avstånd (CSD) fråga är en av de grundläggande graf fråga primitiva, som finner den kortaste avståndet från ett ursprung till en destination i en graf med en begränsning att den totala kostnaden inte överstiger en given tröskel. CSD-frågor har ett brett spektrum av tillämpningar, t.ex. routing inom telekommunikation och transport. Med en ökande prevalens av molndata paradigm, grafägare vill outsourca sina grafer till molnservrar. För att skydda känslig information krypteras vanligtvis dessa grafer innan de läggs ut på molnet. Detta innebär dock en stor utmaning för värdepapperscentralen att fråga över krypterade grafer. Eftersom det är en svåråtkomlig uppgift att utföra begränsningsfiltrering, fokuserar det befintliga arbetet främst på obehindrade kortaste avståndsförfrågningar. CSD-frågor över krypterade grafer är fortfarande ett öppet forskningsproblem. I det här dokumentet föreslår vi Connor, ett nytt diagramkrypteringssystem som möjliggör ungefärlig CSD-förfrågan. Connor är byggt på en effektiv, trädbaserad chiffertext jämförelse protokoll, och använder sig av symmetri-nyckel primitiver och den något homomorphic kryptering, vilket gör det beräkningsmässigt effektiv. Använda Connor, en graf ägare kan först kryptera sekretesskänsliga grafer och sedan outsourca dem till molnservern, uppnå nödvändig integritet utan att förlora förmågan att fråga. Omfattande experiment med verkliga datauppsättningar visar hur effektivt och ändamålsenligt det föreslagna grafkrypteringssystemet är.
Shen m.fl. REF introducerade och studerade molnbaserade ungefärliga begränsade kortaste avstånd frågor i krypterade grafer som finner den kortaste avståndet med en begränsning sådan att den totala kostnaden inte överskrider en given tröskel.
11,307,192
Cloud-Based Approximate Constrained Shortest Distance Queries Over Encrypted Graphs With Privacy Protection
{'venue': 'IEEE Transactions on Information Forensics and Security', 'journal': 'IEEE Transactions on Information Forensics and Security', 'mag_field_of_study': ['Computer Science']}
13,977
ABSTRACT Långtidsminne (LSTM) har i stor utsträckning använts i olika tillämpningar, såsom behandling av naturligt språk, taligenkänning och datorseende över återkommande neurala nätverk (RNN) eller rekursiva neurala nätverk (RvNN)-ett trädstrukturerat RNN. Dessutom har LSTM-RvNN använts för att representera kompositionssemantik genom kopplingar mellan dolda vektorer över barnenheter. De linjära anslutningarna i de befintliga LSTM-nätverken kan dock inte fånga in komplexa semantiska representationer av texter i naturligt språk. Till exempel, komplexa strukturer i naturligt språk texter vanligtvis betecknar invecklade relationer mellan ord, såsom negativa känslor eller känslor styrkor. I detta dokument föreslås kvadratiska kopplingar till LSTM-modellen när det gäller RvNN (förkortat som qLSTM-RvNN) för att angripa problemet med att representera kompositionssemantik. Den föreslagna qLSTM-RvNN-modellen utvärderas i referensdatauppsättningar som innehåller semantisk kompositionalitet, dvs. känsloanalys av Stanford Sentiment Treebank och semantisk relaterat till meningar som inbegriper sammansättningsdata. Empiriska resultat visar att den överträffar de senaste RNN-, RvNN- och LSTM-nätverken i två semantiska kompositionsuppgifter genom att öka klassificeringsnoggrannheten och menings korrelationen samtidigt som den avsevärt minskar beräkningskomplexiteterna. INDEX TERMS Återkommande neurala nätverk, långtidsminnesnätverk, icke-linjära anslutningar, djupinlärning.
Wu och Chi REF föreslog en modell med kvadratiska anslutningar av LSTM som kan fånga komplexa semantiska representationer av naturliga språktexter och utvärderas på referensdatauppsättningen, Stanford Sentiment Treebank.
24,013,591
Long Short-Term Memory With Quadratic Connections in Recursive Neural Networks for Representing Compositional Semantics
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
13,978
Abstract-This paper presenterar en inomhus beläggning estimator med vilken vi kan uppskatta antalet personer i realtid inomhus baserat på koldioxid (CO2) mätning. Uppskattningen är i själva verket en dynamisk modell av beläggningsnivån. För att identifiera den dynamiska modellen, föreslår vi Feature Scale Extreme Learning Machine (FS-ELM) algoritm, som är en variation av standard Extreme Learning Machine (ELM) men visar sig prestera bättre för beläggning estimering problem. Den uppmätta CO2-koncentrationen lider av allvarliga toppar. Vi anser att förhandssmoothing av CO2-data kan avsevärt förbättra uppskattningsnoggrannheten. I verkliga tillämpningar kan vi dock inte få de globalt utjämnade CO2-uppgifterna i realtid. Vi erbjuder ett sätt att använda lokalt utjämnade CO2-data istället, vilket är tillgängligt i realtid. Vi inför ett nytt kriterium, dvs. x-toleransnoggrannhet, för att bedöma beläggningsestimatorn. Den föreslagna beläggningsberäkningen testades i ett kontorsrum med 24 bås och 11 öppna säten. Noggrannheten är upp till 94 procent med en tolerans på fyra personer.
I REF presenterades Feature Scale Extreme Learning Machine (FS-ELM) algoritm för att uppskatta antalet passagerare baserat på CO2-mätning.
17,373,754
Indoor occupancy estimation from carbon dioxide concentration
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Engineering']}
13,979
Abstrakt. Detta dokument beskriver ett experiment där effekten av dynamiska skuggor i en uppslukande virtuell miljö mäts med avseende på rumslig perception och närvaro. Åtta ämnen fick uppgifter att utföra i en virtuell miljö. Varje ämne utförde fem experimentella försök, och omfattningen av dynamiska skuggfenomen varierade mellan försöken. Två mätningar av närvaro användes - en subjektiv en baserad på ett frågeformulär, och en mer objektiv beteendemått. Experimentet var ofullständigt med avseende på skuggornas effekt på djupuppfattningen. Experimentet tyder dock på att ju större omfattningen av skuggfenomen i den virtuella miljön är för visuellt dominerande subjekt, desto större känsla av närvaro.
Till exempel genomförde REF en studie om påverkan av närvaron av skuggor i HMD virtuell miljö.
5,539,439
The Influence of Dynamic Shadows on Presence in Immersive Virtual Environments
{'venue': 'Computer Science, editor, Virtual Environments ’95', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,981
Abstrakt. Fallbaserade resonemang (CBR) system löser nya problem genom att hämta lagrade tidigare fall, och anpassa sina lösningar för att passa nya omständigheter. Traditionellt sett drar CBR-systemen sina fall från en enda lokal fallbas som är anpassad till deras uppgift. När ett systems egna fall är begränsade kan det dock vara fördelaktigt att komplettera den lokala fallbasen med fall som hämtats från externa fallbaser för relaterade uppgifter. Effektiv användning av externa fallbaser kräver strategier för flerfaldigt resonemang (MCBR): (1) för att avgöra när problem ska skickas till en extern fallbas, och (2) för att utföra anpassning mellan fallbaser för att kompensera för skillnader i de uppgifter och miljöer som varje fallbas återspeglar. I detta dokument presenteras metoder för automatisk inställning av MCBR-system genom att välja effektiva leveranskriterier och anpassningsstrategier för flera fall. Metoderna kräver ingen förkunskaper om uppgiften och domänen: de utför tester på en första uppsättning problem och använder resultaten för att välja strategier som återspeglar egenskaperna hos lokala och externa fall-baser. Vi presenterar experimentella illustrationer av utförandet av stämmetoder för en numerisk förutsägelse uppgift, och visar att en liten provuppsättning kan vara tillräcklig för att göra högkvalitativa val av leverans och kors-case-bas anpassningsstrategier.
Slutligen är ett annat intressant tillvägagångssätt flera fall-grundar resonemang (MCBR) REF, som behandlar distribuerade system där det finns flera fall baser tillgängliga för samma uppgift och tar itu med problemen med flera fall basanpassning.
13,158,471
Automatically Selecting Strategies for Multi-Case-Base Reasoning
{'venue': 'Proceedings of ECCBR-2002, 204–219', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,982
Sociala nätverk spelar en grundläggande roll för informationsspridningen. Det finns dock två olika sätt på vilket information når en person i ett nätverk. Information når oss genom anslutningar i våra sociala nätverk, liksom genom påverkan externa out-of-network källor, som de vanliga medierna. Medan de flesta nuvarande modeller av informationsspridning i nätverk antar information endast passerar från en nod till nod via kanterna på det underliggande nätverket, den senaste tillgängligheten av massiva online sociala medier data gör att vi kan studera denna process mer i detalj. Vi presenterar en modell där information kan nå en nod via länkarna till det sociala nätverket eller genom påverkan från externa källor. Vi utvecklar sedan en effektiv modellparameter monteringsteknik och tillämpar modellen på uppkomsten av URL nämner i Twitter-nätverket. Med hjälp av ett komplett en månad spår av Twitter studerar vi hur information når noderna i nätverket. Vi kvantifierar de externa influenserna över tid och beskriver hur dessa påverkar informationsspridningen. Vi upptäcker att informationen tenderar att "hoppa" över nätverket, vilket bara kan förklaras som en effekt av en omärklig extern påverkan på nätverket. Vi finner att endast cirka 71% av informationsmängden i Twitter kan hänföras till nätverksspridning, och de återstående 29% beror på externa händelser och faktorer utanför nätverket.
Myers m.fl. REF utvecklade en informationsspridningsmodell för att integrera både det interna inflytandet och det externa inflytandet i ett nätverk.
2,290,047
Information diffusion and external influence in networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics']}
13,983
Sammanfattning Historiskt har analysen av matchning centrerat sig på att utforma algoritmer för att producera stabila matchningar samt på att analysera incitamentkompatibiliteten hos matchningsmekanismer. Mindre uppmärksamhet har ägnats åt frågor som rör social välfärd för stabila matchningar i kardinal nyttomodeller. Vi undersöker den förlust i social välfärd som uppstår genom att kräva matchningar för att vara stabil, det naturliga jämviktsbegreppet under individuell rationalitet. Även om denna förlust kan vara godtyckligt dålig under allmänna preferenser, när det finns någon struktur till den underliggande grafen som motsvarar naturliga villkor på preferenser, vi bevisa värsta fall gränser på priset på anarki. Förvånansvärt nog, under enkla distributioner av verktyg, visar sig den genomsnittliga fallförlusten vara betydligt mindre än den värsta analysen skulle tyda på. Dessutom har vi förutsättningar för att det ska finnas ungefär stabila matchningar som också är nära socialt optimala, vilket visar att tillägg av små växlingskostnader kan göra socialt (nära) optimala matchningar stabila. Vår analys leder till flera samtidiga resultat av intresse för konvergensen av decentraliserade partnerskiftande algoritmer, och på inverkan av heterogenitet av smaker på social välfärd.
I REF tillhandahölls priset på anarki och stabilitetsgränser för ungefärliga korrelerade stabila matchningar.
2,742,467
Anarchy, stability, and utopia: creating better matchings
{'venue': 'Autonomous Agents and Multi-Agent Systems', 'journal': 'Autonomous Agents and Multi-Agent Systems', 'mag_field_of_study': ['Computer Science']}
13,984
Abstract-Service migration mellan datacenter kan minska nätverket overhead inom en molninfrastruktur; därmed också förbättra kvaliteten på tjänsten för kunderna. De flesta algoritmer i litteraturen antar att klientens tillträdesmönster förblir stabilt under en tillräckligt lång period för att skriva av sådana migreringar. Om ett sådant antagande inte håller kan dessa algoritmer emellertid fatta godtyckligt dåliga migrationsbeslut som avsevärt kan försämra systemets prestanda. I detta dokument behandlar vi frågan om att utföra tjänstemigreringar för ett okänt och dynamiskt föränderligt klienttillträdesmönster. Vi föreslår en online-algoritm som minimerar det inter-datacenter nätverket, med hänsyn till nätbelastningen av migrering en tjänst mellan två datacenter, samt det faktum att klienten begäran mönster kan ändra "snabbt", innan en sådan migration amorteras. Vi tillhandahåller ett rigoröst matematiskt bevis som visar att algoritmen är 3.8-konkurrenskraftig för ett molnnätverk som är uppbyggt som ett träd av flera datacenter. Vi diskuterar kortfattat hur algoritmen kan ändras för att arbeta på allmänna grafnätverk med en probabilistisk approximation av den optimala algoritmen. Slutligen presenterar vi en experimentell utvärdering av algoritmen baserad på omfattande simuleringar.
Tziritas m.fl. REF formulerade en tjänst migration problem och föreslog en online-algoritm som minimerar nät overhead kostnader bland olika datacenter.
13,847,508
Online Inter-Datacenter Service Migrations
{'venue': None, 'journal': 'IEEE Transactions on Cloud Computing', 'mag_field_of_study': ['Computer Science']}
13,985
Tidsserieklassificeringen har rönt stor uppmärksamhet på grund av de olika områden där tidsseriedata observeras, allt från medicin till ekonometri. Traditionellt har tidsserieklassificeringens fokus legat på kort tidsseriedata som består av några mönster som uppvisar variabilitet, medan man nyligen har försökt att fokusera på längre serier som består av flera lokala patrepeat med en godtycklig oegentlighet. Det primära bidraget från detta dokument bygger på att presentera en metod som kan detektera lokala mönster i repetitiva tidsserier genom att montera lokala polynomfunktioner av en viss grad. Vi fångar de repetitiva graderna av tidsseriedata med hjälp av en ny åtgärd. Dessutom approximerar vår metod lokala polynom i linjär tid och säkerställer en övergripande linjär körtid komplexitet. Koefficienter för polynomfunktionerna omvandlas till symboliska ord via liksidiga diskretiseringar av koefficienternas fördelningar. De symboliska polynomorden gör det möjligt att upptäcka liknande lokala mönster genom att tilldela samma ord till liknande polynom. Dessutom konstrueras ett histogram av ordens frekvenser från varje tidsseries påse med ord. Varje rad av histogrammet möjliggör en ny representation för serien och symboliserar förekomsten av lokala mönster och deras frekvenser. I en experimentell jämförelse mot state-of-the-art basics på repetitiva datauppsättningar, vår metod visar betydande förbättringar i form av förutsägelse noggrannhet.
Symbolisk polynom (SP) REF är en symbolisk representation utformad för att upptäcka lokala mönster.
2,705,171
Scalable Classification of Repetitive Time Series Through Frequencies of Local Polynomials
{'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']}
13,986
Detta dokument presenterar en teori för automatiserat trafikflöde, baserad på en abstraktion av fordonsaktiviteter som in-, utgångs- och cruising, som härrör från ett fordons automatiska kontrolllagar. En aktivitet representeras i flödesmodellen av det utrymme som används av ett fordon som deltar i denna verksamhet. Teorin formulerar TMC trafikplaner som en specifikation av fordonens verksamhet och hastighet, och in- och utfartsflöden för varje motorvägsavsnitt. Vi visar att flöden som uppnår kapacitet kan realiseras genom stationära planer som också minimerar restiden. Dessa optimala planer kan beräknas genom att lösa ett linjärt programmeringsproblem. Vi illustrerar dessa begrepp genom att beräkna kapaciteten hos ett automatiserat motorvägssystem med ett enda körfält, och jämför adaptiv kryssningsstyrning och platooning strategier för automatisering. Teorin tillåter studier av övergående fenomen såsom trängsel, och TMC återkoppling trafikregler utformade för att hantera transienter. Vi föreslår en "grå" TMC-regel som alltid uppnår kapacitet men inte minimerar restiden. Slutligen genomför vi en mikroskopisk studie av infartsaktiviteten och visar hur bristande samordning mellan infart till fordon och fordon på huvudlinjen stör trafikflödet och ökar restiden.
Broucke m.fl. presenterade en trafikflödesteori i automatiserade motorvägssystem och noterade att samordningen av fordonens ingångar till en motorväg kan bidra till att förbättra flödena REF.
6,230,953
A theory of traffic flow in automated highway systems
{'venue': None, 'journal': 'Transportation Research Part C-emerging Technologies', 'mag_field_of_study': ['Engineering']}
13,987
Abstract-Supervised learning of Convolutional Neural Networks (CNNs), även känd som övervakad Deep Learning, är en computationally krävande process. För att hitta de lämpligaste parametrarna för ett nätverk för en viss applikation krävs många utbildningar. Därför är det viktigt att minska träningstiden per session för att fullt ut kunna utnyttja CNN i praktiken. Medan många forskargrupper har tagit itu med utbildningen av CNNs som använder GPUs, hittills inte mycket uppmärksamhet har ägnats Intel Xeon Phi coprocessor. I denna uppsats undersöker vi empiriskt och teoretiskt potentialen hos Intel Xeon Phi för övervakad inlärning av CNNs. Vi utformar och genomför ett parallelliseringssystem kallat CHAOS som utnyttjar både tråd- och SIMD-parallelismen hos samprocessorn. Vårt tillvägagångssätt utvärderas på Intel Xeon Phi 7120P med hjälp av MNIST-datauppsättningen med handskrivna siffror för olika trådräkningar och CNN-arkitekturer. Resultat visar en 103,5x hastighet upp när du tränar vårt stora nätverk för 15 epoker med 244 trådar, jämfört med en tråd på coprocessorn. Dessutom utvecklar vi en prestandamodell och använder den för att bedöma vårt genomförande och besvara frågor om vad.
Andre Viebke m.fl. även utnyttjad tråd-och SIMD-parallelism av Intel Xeon Phi-processorer för att påskynda utbildningen av CNNs REF.
15,411,954
The Potential of the Intel (R) Xeon Phi for Supervised Deep Learning
{'venue': '2015 IEEE 17th International Conference on High Performance Computing and Communications, 2015 IEEE 7th International Symposium on Cyberspace Safety and Security, and 2015 IEEE 12th International Conference on Embedded Software and Systems', 'journal': '2015 IEEE 17th International Conference on High Performance Computing and Communications, 2015 IEEE 7th International Symposium on Cyberspace Safety and Security, and 2015 IEEE 12th International Conference on Embedded Software and Systems', 'mag_field_of_study': ['Computer Science']}
13,988
Trådlösa sensornätverk byggs för att underlätta automatisk informationsinsamling i militära, industriella, miljö- och övervakningstillämpningar. Många sådana tillämpningar av Sensor Networks kräver förbättrade QoS (paketleverans inom en fastställd tidsfrist) garantier samt hög tillförlitlighet. Dessa applikationer kräver hög paketleveranskvot och är extremt delay-känsliga. Vissa faktorer begränsar dock multihopsensornätverkets förmåga att uppnå de önskade målen. Dessa faktorer omfattar förseningar orsakade av överbelastning av nätet, heta regioner i nätet, begränsad energi från sensornoder, paketförlust på grund av kollisioner och länkfel. I detta dokument föreslår vi ett energimedvetet dubbelriktat routingsystem för realtidstrafik, som balanserar användningen av nodenergi för att öka nätets livslängd, tar hänsyn till överbelastning av nätet för att minska fördröjningen av routing över nätet och ökar tillförlitligheten hos paketen som når destinationen genom att införa minimal data redundans. I detta dokument introduceras också ett adaptivt prioriterat medium Access Layer (MAC) för att tillhandahålla en differentierad servicemodell för paket i realtid. Våra påståenden stöds väl av simuleringsresultat. q ska tillämpas från och med den 1 januari 2016 till och med den 31 december 2018.
Mahapatra m.fl. I REF föreslogs ett QoS- och energyaware routing-system för realtidstrafik i trådlösa sensornätverk.
17,088,385
QoS and energy aware routing for real-time traffic in wireless sensor networks
{'venue': 'Comput. Commun.', 'journal': 'Comput. Commun.', 'mag_field_of_study': ['Computer Science']}
13,989
Accelerometrar är ett populärt val som kroppsrörelsesensorer: orsaken är delvis i deras förmåga att extrahera information som är användbar för att automatiskt härleda den fysiska aktivitet i vilken det mänskliga objektet är inblandat, förutom deras roll i matning av biomekaniska parametrar estimatorer. Automatisk klassificering av mänskliga fysiska aktiviteter är mycket attraktiv för genomträngande datorsystem, medan kontextuell medvetenhet kan underlätta samspelet mellan människa och maskin, och inom biomedicin, medan bärbara sensorsystem föreslås för långsiktig övervakning. Detta dokument handlar om de algoritmer för maskininlärning som behövs för att utföra klassificeringsuppgiften. Hidden Markov Model (HMM) klassificerare studeras genom att kontrastera dem med Gaussian Mixing Model (GMM) klassificerare. HMM införlivar den statistiska information som finns tillgänglig om rörelsedynamik i klassificeringsprocessen, utan att kasta bort tidshistoriken för tidigare utfall som GMM gör. Ett exempel på fördelarna med den erhållna statistiska hävstångseffekten illustreras och diskuteras genom att analysera två datauppsättningar av accelerometertidsserier.
Mannini och Sabatini REF presenterade också en metod för klassificering av mänskliga aktiviteter med hjälp av dolda Markov-modeller (HMMs) och Gaussian Mixing Models (GMMs).
759,452
Accelerometry-Based Classification of Human Activities Using Markov Modeling
{'venue': 'Computational Intelligence and Neuroscience', 'journal': 'Computational Intelligence and Neuroscience', 'mag_field_of_study': ['Computer Science', 'Medicine']}
13,990
Bakgrund: Temporal uttryck extraktion och normalisering är ett grundläggande och viktigt steg i klinisk text bearbetning och analys. Även om en mängd vanliga NLP-verktyg finns tillgängliga för medicinsk tidsbaserad information, är få arbeten tillfredsställande för flerspråkig heterogena kliniska texter. Metoder: En ny metod som kallas TEER föreslås för både multilingual temporal expression extrahering och normalisering från olika typer av berättande kliniska texter, inklusive kliniska dataförfrågningar, kliniska anteckningar och sammanfattningar av kliniska prövningar. TEER karakteriseras som timlig egenskapssammanfattning, heuristisk regelgenerering och automatiskt mönsterinlärning. Genom att representera ett tidsuttryck som en trippel <M, A, N> identifierar TEER tidsnämnande M, tilldelar typattribut A till M och normaliserar värdena för M till formella representationer N. Resultat: Baserat på två heterogena kliniska textdatauppsättningar: 400 faktiska kliniska förfrågningar på engelska och 1459 kliniska urladdningssammanfattningar på kinesiska. TEER jämfördes med sex toppmoderna baslinjer. Resultaten visade att TEER uppnådde en precision på 0,948 och ett återkallande av 0,877 på de engelska kliniska förfrågningarna, medan en precision på 0,941 och ett återkallande av 0,932 på de kinesiska urladdningssammanfattningarna. Slutsatser: En automatiserad metod TEER för multilingual tidsuttrycksextraktion presenterades. Baserat på de två datauppsättningarna med heterogena kliniska texter visade jämförelseresultaten TEER-metodens effektivitet vid multilinguala temporaluttrycksextraktion från heterogena berättande kliniska texter.
Hao och al. REF föreslog en ny metod kallad TEER för både multilingual temporal expression extrahering och normalisering från olika typer av berättande kliniska texter.
4,316,161
A pattern learning-based method for temporal expression extraction and normalization from multi-lingual heterogeneous clinical texts
{'venue': 'BMC Medical Informatics and Decision Making', 'journal': 'BMC Medical Informatics and Decision Making', 'mag_field_of_study': ['Medicine', 'Computer Science']}
13,991
Objektdetekteringssystem baserade på det djupa konvolutionella neurala nätverket (CNN) har nyligen gjort banbrytande framsteg på flera objekt detektion riktmärken. Medan de funktioner som lärts av dessa högkapacitets neurala nätverk är diskriminerande för kategorisering, är felaktig lokalisering fortfarande en viktig källa till fel för detektion. Bygga på hög kapacitet CNN arkitekturer, vi tar itu med lokaliseringsproblem med 1) med hjälp av en sökalgoritm baserad på Bayesian optimering som successivt föreslår kandidatregioner för en objekt avgränsande låda, och 2) utbildning CNN med en strukturerad förlust som uttryckligen straffar lokalisering inaccuracy. I experiment visade vi att var och en av de föreslagna metoderna förbättrar detektionsprestandan jämfört med referensmetoden för PASCAL VOC 2007 och 2012 datauppsättningar. Dessutom kompletterar två metoder varandra och överträffar betydligt den senaste tekniken när den kombineras.
För att förbättra lokaliseringsförmågan hos R-CNN använde REF Bayesian optimering för att förfina förslagen om avgränsande box och tränade CNNs med en strukturerad förlust.
1,078,871
Improving Object Detection with Deep Convolutional Networks via Bayesian Optimization and Structured Prediction
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
13,992
Abstract-This paper presenterar en integrerad strategi för prospektering, kartläggning och lokalisering. Vår algoritm använder en mycket effektiv Rao-Blackwellized partikelfilter för att representera den bakre om kartor och poser. Det tillämpar en besluts-teoretisk ram som samtidigt beaktar osäkerheten i kartan och i fordonets ställning för att utvärdera potentiella åtgärder. Därmed går den av med kostnaden för att genomföra en åtgärd med den förväntade informationsvinsten och tar hänsyn till eventuella sensormätningar som samlats in längs robotens väg. Vi beskriver vidare hur man kan utnyttja egenskaperna hos Rao-Blackwellization för att effektivt beräkna den förväntade informationsvinsten. Vi presenterar experimentella resultat som erhållits i den verkliga världen och i simulering för att visa effektiviteten i vår strategi.
I REF, RaoBlackwellized partikelfilter används för att beräkna kartan och robot pose posteriors.
8,255,559
Information Gain-based Exploration Using Rao-Blackwellized Particle Filters
{'venue': 'Robotics: Science and Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,993
Abstract-Det tillförlitliga stödet för händelsedriven massiv maskin-typ kommunikation (MTC) kräver radikala förbättringar i standard LTE slumpmässig access kanal (RACH) förfarande för att undvika prestandanedbrytning på grund av en hög sannolikhet för kollision i inledningen överföring. I detta dokument undersöker vi förhållandet mellan cellstorleken och antalet ingresser som genereras från en enda eller flera rotsekvenser och vi studerar deras inverkan på den uppnådda tillförlitligheten. Baserat på ett analytiskt uttryck av RACH:s tillförlitlighet per cell, introducerar vi en interferens- och belastningsmedveten cellplaneringsmekanism som effektivt fördelar rotsekvenserna mellan flera celler och reglerar trafikbelastningen för att garantera pålitligt stöd av MTC. Dessutom föreslår vi en realistisk trafikmodell som exakt fångar MTC-trafikens händelsedrivna karaktär. Slutligen visar en prestandautvärdering av ett automationsscenario för eldistribution med MTC-överbelastning den överlägsna prestandan hos vår föreslagna mekanism när det gäller RACH:s tillförlitlighet mot benchmarking av nätdistributionssystem.
En effektiv cellplanering och Zadoff-Chu rotsekvensallokeringsteknik har föreslagits i REF som effektivt fördelar rotsekvenserna bland flera celler för att minska intercellinterferensen.
525,725
Efficient Cell Planning for Reliable Support of Event-Driven Machine-Type Traffic in LTE
{'venue': 'GLOBECOM 2017 - 2017 IEEE Global Communications Conference', 'journal': 'GLOBECOM 2017 - 2017 IEEE Global Communications Conference', 'mag_field_of_study': ['Computer Science']}
13,994
Att förstå varför prestandan hos ett flertrådigt program inte förbättras linjärt med antalet kärnor i en delad minnesnod befolkad med en eller flera flerkärniga processorer är ett problem av växande praktisk betydelse. Detta dokument ger tre bidrag till prestandaanalys av multitrådade program. För det första beskriver vi hur man mäter och tillskriver parallell sysslolöshet, nämligen där trådar är förhalade och oförmögna att arbeta. Denna teknik gäller i stort för programmeringsmodeller som sträcker sig från explicit gängning (t.ex. Pthreads) till modeller på högre nivå såsom Cilk och OpenMP. För det andra beskriver vi hur man mäter och tillskriver parallella overhead-när en tråd utför diverse andra arbeten än att utföra användarens beräkning. Genom att använda en kombination av kompilatorstöd och post-mortem analys, vi ådrar oss ingen mätningskostnad utöver normal profilering för att plocka denna information. Med hjälp av tomgång och overhead-mått kan man identifiera områden i en applikation där konvergensen bör ökas (för att minska tomgång), minska (för att minska overhead), eller där den nuvarande parallelliseringen är hopplös (där tomgång och overhead är både hög). För det tredje beskriver vi hur man mäter och tillskriver godtyckliga prestandamått för multitrådade programmeringsmodeller på hög nivå, såsom Cilk. Detta kräver att överbrygga gapet mellan uttrycket för logisk konvergens i program och dess förverkligande i kör-tid som det är adaptivt partitionerad och schemalagd på en pool av trådar. Vi har tagit fram dessa idéer i samband med Rice Universitys HPCTOOLKIT-prestandaverktyg. Vi beskriver vår strategi, genomförande, och erfarenheter tillämpa denna metod för att mäta och attributera arbete, sysslolöshet, och overhead i utföranden av Cilk program.
Tallent m.fl. I REF föreslås metoder för att mäta och tillskriva parallell overksamhet och parallella omkostnader för multitrådade parallella tillämpningar.
273,915
Effective performance measurement and analysis of multithreaded applications
{'venue': "PPoPP '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,995
Ett antal nya verk har föreslagit uppmärksamhetsmodeller för visuellt frågesvar (VQA) som genererar rumsliga kartor som belyser bildregioner som är relevanta för att besvara frågan. I detta dokument hävdar vi att det förutom att modellera "där man kan titta" eller visuell uppmärksamhet är lika viktigt att modellera "vilka ord man ska lyssna på" eller ifrågasätta uppmärksamheten. Vi presenterar en ny co-attention modell för VQA som tillsammans resonerar om bild och ifrågasätter uppmärksamhet. Dessutom, vår modell skäl till frågan (och därmed bilden via co-attention mekanism) på ett hierarkiskt sätt via en ny 1-dimensionell konvolution neurala nätverk (CNN) modell. Vår slutliga modell överträffar alla rapporterade metoder och förbättrar den senaste tekniken på VQA-datauppsättningen från 60,4 % till 62,1 %, och från 61,6 % till 65,4 % på COCO-QA-datauppsättningen 1. 1 Källkoden kan laddas ner från https://github.com/jiasenlu/HieCoAttenVQA
Lu m.fl. Ytterligare uppmärksamma språkmodellen, kallad rockention, att gemensamt resonera om bilder och frågor REF.
868,693
Hierarchical Question-Image Co-Attention for Visual Question Answering
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
13,996
I detta dokument presenteras ett nytt tillvägagångssätt för att upptäcka och spåra förändringar i ordbetydelse genom att visuellt modellera och representera diakronisk utveckling i ordsammanhang. Tidigare studier har visat att beräkningsmodeller är kapabla att kluster och disambiguating sinnen, en nyare trend undersöker om förändringar i ordbetydelse kan spåras med automatiska metoder. Syftet med vår studie är att erbjuda ett nytt instrument för att undersöka den diakroniska utvecklingen av ordförnimmelser på ett sätt som möjliggör en bättre förståelse av semantiska förändringar i allmänhet. För detta ändamål kombinerar vi tekniker från området Visual Analytics med oövervakade metoder från Natural Language Processing, vilket möjliggör en interaktiv visuell undersökning av semantiska förändringar.
REF presenterar ett system för att visualisera ändringar i ordanvändning över tid.
14,632,408
Towards Tracking Semantic Change by Visual Analytics
{'venue': 'Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,997
Abstract-De flesta tillämpningar av evolutionära algoritmer (EAs) hanterar statiska optimeringsproblem. Under de senaste åren har intresset dock ökat för tidsvarierande (dynamiska) problem, som vanligtvis förekommer i verkliga scenarier. En stor utmaning inom detta område är utformningen av realistiska testhusgeneratorer, vilket kräver en systematisk analys av dynamiska optimeringsuppgifter. Hittills har endast ett fåtal testfallsgeneratorer föreslagits. Vår undersökning leder till slutsatsen att dessa triklorisocyanursyragrupper inte kan generera realistiska dynamiska referenstester. Resultatet av vår forskning är designen av en ny TCG som kan producera realistiska icke-stationära landskap.
I REF noterade författarna att de flesta tillämpningar av evolutionära algoritmer (EA) hanterar statiska optimeringsproblem.
16,975,929
Analysis and Modeling of Control Tasks in Dynamic Systems
{'venue': 'IEEE Transactions on Evolutionary Computation', 'journal': None, 'mag_field_of_study': ['Computer Science']}
13,998
Problem med utbyggnad av trådlösa sensornätverk för realtidsövervakning av oljefält studeras. Som ett kännetecken för system för övervakning av oljefält måste alla sensornoder installeras på utsedda platser. För energieffektiviteten används vissa relänoder och diskhonoder som ett delsystem för leverans. Det viktigaste problemet med konstruktionen av övervakningssystemet är optimal placering av delsystemet Dataleverans för att säkerställa fullständig anslutning av sensornoder samtidigt som byggkostnaden hålls så låg som möjligt, med minsta möjliga konstruktions- och underhållskomplexitet. På grund av oljefältens komplicerade form är det i allmänhet ganska svårt att uppfylla dessa krav samtidigt. Utbyggnadsproblemet är formulerat som ett begränsat multiobjektivt optimeringsproblem och löst genom ett nytt system baserat på multiobjektiv diskret binär partikel svärm optimering för att producera optimala lösningar från den minsta finansiella kostnaden till den minsta komplexiteten i konstruktion och underhåll. Simuleringsresultat validerade att jämfört med de tre befintliga toppmoderna algoritmerna, det vill säga NSGA-II, JGGA och SPEA2, är det föreslagna systemet överlägset när det gäller att lokalisera Pareto-optimal front och upprätthålla mångfalden av lösningar, vilket ger överlägsna kandidatlösningar för utformningen av realtidsövervakningssystem i oljefält.
I Yang et al., Ref hittar vi olika optimeringstekniker för nod utbyggnad i verkliga scenarier, särskilt på oljefält, där den största oron är den optimala placeringen av noder för att säkerställa full anslutning.
12,016,965
Deployment of Wireless Sensor Networks for Oilfield Monitoring by Multiobjective Discrete Binary Particle Swarm Optimization
{'venue': 'J. Sensors', 'journal': 'J. Sensors', 'mag_field_of_study': ['Engineering', 'Computer Science']}
13,999
I detta arbete, vi forska och utvärdera end-toend lärande av monocular semantic-metrisk beläggning rutnät kartläggning från svag binokulär mark sanning. Nätverket lär sig att förutsäga fyra klasser, samt en kamera till fågelns synkartläggning, som visar sig vara mer robust än med hjälp av en tröghetsmätningsenhet (IMU) med hjälp av plattplanets antagande. I kärnan, den använder en variationell kodare-dekoder nätverk som kodar framifrån visuell information om körscenen och därefter avkodar den till en 2-D topview Cartesian koordinatsystem. Det visas att nätverket lär sig att vara invariant att pitch och rulla perturbation av kameravyn utan att kräva IMU data. Utvärderingarna på Cityscapes visar att vår end-to-end-inlärning av semantikmetriska beläggningsnät uppnår 72,1 % frekvensviktade IoU, jämfört med 60,2 % vid användning av ett IMU-stödd plan. Dessutom uppnår vårt nätverk i realtid slutsatser om ca. 35 Hertz för en ingångsbild med en upplösning på 256×512 pixlar och en utgångskarta med 64×64 beläggning rutnätsceller med hjälp av en Titan V GPU.
VD-metoden av REF använder en variationell kodare-dekoder nätverk för att förutsäga en semantisk beläggning rutnät direkt från en bild.
52,189,831
Monocular Semantic Occupancy Grid Mapping with Convolutional Variational Encoder-Decoder Networks
{'venue': None, 'journal': 'arXiv: Robotics', 'mag_field_of_study': ['Engineering', 'Computer Science']}
14,000
Abstract-I detta dokument presenterar vi krav, design och pre-deployment testning av en transportbuss som en Mobile Enterprise Sensor Bus (M-ESB) tjänst i Kina som stöder två huvudsakliga krav: att övervaka den urbana fysiska miljön, och att övervaka vägförhållanden. Även om flera sådana projekt har föreslagits tidigare, integrera både miljö- och vägövervakning och använda ett datautbyte gränssnitt för att mata ett datamoln datorsystem, är en ny metod. Vi presenterar arkitekturen för M-ESB och föreslår dessutom en ny ledningsmodell för bussbolaget att fungera som en virtuell mobiltjänstoperatör. Test för utplacering genomfördes för att validera vårt system
Kang m.fl. presenterade krav, design och pre-deployment testning av en IoT-baserad transportbuss som en Mobile Enterprise Sensor Bus (M-ESB) tjänst i Kina som stöder övervakning av den urbana fysiska miljön och övervakning av vägförhållanden REF.
3,466,764
A Public Transport Bus as a Flexible Mobile Smart Environment Sensing Platform for IoT
{'venue': '2016 12th International Conference on Intelligent Environments (IE)', 'journal': '2016 12th International Conference on Intelligent Environments (IE)', 'mag_field_of_study': ['Computer Science']}
14,001
3D-dokumentationen av tunnelytan under konstruktion kräver snabba och robusta mätsystem. I den lösning som föreslås i detta papper, under tunneln framåt en enda kamera tar bilder av tunnelytan från flera positioner. De inspelade bilderna bearbetas automatiskt för att få en 3D-tunnelyta. Bildförvärvet realiseras av tunnel-/förlängnings-/körpersonal nära tunnelytan (= den främre delen av förskottet). På grundval av följande helautomatiska analys/utvärdering kan ett beslut om kvaliteten på utbrottet fattas inom några minuter. Detta dokument beskriver bildinspelningssystemet och villkoren samt det stereo-fotogrammetrbaserade arbetsflödet för den kontinuerligt sammanslagna täta 3D-rekonstruktionen av hela den avancerade regionen. Geo-referens realiseras med hjälp av signalerade mål som automatiskt detekteras i bilderna. Vi rapporterar om resultaten av de senaste testerna under verkliga byggförhållanden, och avslutar med utsikter till ytterligare utveckling när det gäller prestanda på plats.
Därför bearbetas insamlade bilder för att få en tät 3D-ombyggnad av tunnelytan REF.
18,329,677
Tunnel Surface 3D Reconstruction from Unoriented Image Sequences
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
14,002
Hybridstråleformning ger en lovande lösning för att uppnå hög dataöverföring vid millimetervågor. För att implementera hybridstrålkastaren vid transceivern är en vanlig lösning att koppla bort sändarens och mottagarens funktioner och sedan optimera dem separat baserat på given kanaltillståndsinformation. Många referenser bortser dock från komplexiteten i den högdimensionella kanaluppskattning problem eller ansträngningen för det efterföljande steget att beräkna den singular värde sönderdelningen av en stor kanal matris. I detta syfte presenterar vi ett system med låg komplexitet som utnyttjar implicit kanalkunskap för att underlätta utformningen av hybrid strålformning för frekvensselektiva blekningskanaler. Den implicita kanalkunskapen kan tolkas som en koppling av kanalen och alla par av möjliga analoga strålformande vektorer vid sändaren och mottagaren, och den erhålls genom att ta emot de överförda piloterna. Baserat på de mottagna piloterna konstrueras olika effektiva kanalmatriser i den meningen att matriselementen i huvudsak är kopplingskoefficienterna. I stället för att beräkna ömsesidig information använder vi Frobenius normen för den effektiva kanalen som en nyckelparameter för den hybrida strålformningsvinsten. Till följd av detta blir det komplicerade problemet med hybridstråleformning mycket enklare: det handlar om att prova olika uppsättningar av de storkraftiga piloter som tas emot för att konstruera flera alternativ för den effektiva kanalmatrisen. Sedan, den uppsättning som ger den största Frobenius norm ger lösningen på hybrid strålformning problem. Millimetervåg, analogt strålval, frekvensselektiv blekningskanal, implicit kanaltillståndsinformation, nyckelparameter för den hybridstrålebildande vinsten.
I detta syfte föreslogs ett hybridsystem för förkodning som utnyttjar implicit CSI (dvs. kopplingarna mellan alla möjliga par av analoga strålformande vektorer) i REF.
31,506,743
Hybrid Beamforming Based on Implicit Channel State Information for Millimeter Wave Links
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
14,003
CALM-överenskommelsen, som Hellerstein först angav [23] och som visade sig i sin reviderade form av Ameloot et al. [13] inom ramen för relationella transducernätverk, hävdar att en fråga har en samordningsfri genomförandestrategi om och endast om frågan är monoton. Zinn m.fl. [32] utvidgade ramen för relationella transducer-nätverk för att möjliggöra särskilda datadistributionsstrategier och visade att den ickemonontoniska win-move-frågan är samordningsfri för domänstyrda datadistributioner. I denna artikel avslutar vi historien genom att likställa allt större klasser av samordningsfria beräkningar med allt svagare former av monotonitet och göra Datalog-varianter explicita som fångar var och en av dessa klasser. Ett sådant fragment är baserat på stratifierad datalogg där regler krävs för att anslutas med undantag för det sista stratumet. Dessutom karakteriserar vi samordningsfriheten som de beräkningar som inte kräver kunskap om alla andra noder i nätverket och som därför inte kan samordnas globalt. Resultaten i denna rapport kan tolkas som ett mer finkornigt svar på CALM-överväganden.
Ameloot m.fl. REF gav därefter ett mer finkornigt svar på CALM-övergreppet genom att relatera dessa starkare varianter av relationstransducernätverk till svagare föreställningar om monotonitet.
17,234,831
Weaker forms of monotonicity for declarative networking: a more fine-grained answer to the calm-conjecture
{'venue': "PODS '14", 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,004
Bakgrund. Bevis tyder på att mobila applikationer inte testas ordentligt som sina stationära motsvarigheter. I synnerhet GUI-testning är i allmänhet begränsad. I likhet med webbaserade applikationer lider mobilappar av GUI-test bräcklighet, d.v.s. GUI-testklasser som inte fungerar på grund av mindre ändringar i GUI, utan att applikationsfunktionerna ändras. Siktar. e Syftet med vår studie är att undersöka spridningen av GUI testning på Android, och mängden ändringar som krävs för att hålla testklasser uppdaterade, och i synnerhet ändringarna på grund av GUI test bräcklighet. Vi definierar mätvärden för att karakterisera modifieringar och utveckling av testklasser och testmetoder, och proxies för att uppskatta bräckliga förändringar. Metod. För att utföra våra experiment valde vi sex allmänt använda open-source-verktyg för scripted GUI-testning av mobila applikationer som tidigare beskrivits i litteraturen. Vi har minerat arkiven på GitHub som använde verktygen och räknat ut våra mätvärden. Resultat. Vi fann att ingen av de ansedda GUI testing ramar uppnått en stor spridning bland de open-source Android-projekt som finns på GitHub. För projekt med GUI tester, fann vi att testsviter måste ändras o en, specifikt 5%-10% av utvecklares modifierade LOCs tillhör tester, och att en relevant del (60% i genomsnitt) av sådana ändringar induceras av bräcklighet. Slutsatser. Renhetsgrad för GUI-testklasser utgör ett relevant problem, eventuellt ett hinder för utvecklare att anta automatiserade skriptbaserade GUI-tester. är första utvärdering och mått på bräcklighet av Android skript GUI testning kan utgöra ett riktmärke för utvecklare, och grunden för definitionen av en taxonomi av instabila orsaker, och åtgärderbara riktlinjer för att minska problemet.
REF studerade sårbarheten av GUI testning i Android-appar.
3,418,487
Scripted GUI Testing of Android Apps: A Study on Diffusion, Evolution and Fragility
{'venue': 'PROMISE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,005
Detta papper presenterar en uppsättning full upplösning förlustbild komprimeringsmetoder baserade på neurala nätverk. Var och en av de arkitekturer som vi beskriver kan ge variabla komprimeringshastigheter under utbyggnaden utan att kräva omskolning av nätverket: varje nätverk behöver bara utbildas en gång. Alla våra arkitekturer består av ett återkommande neuralt nätverk (RNN)-baserad kodare och dekoder, en binarizer, och ett neuralt nätverk för entropikodning. Vi jämför RNN-typer (LSTM, associative LSTM) och introducerar en ny hybrid av GRU och ResNet. Vi studerar också "one-shot" kontra additive rekonstruktion arkitekturer och introducerar en ny skalad-additive ram. Vi jämför med tidigare arbete, visar förbättringar på 4,3%-8,8% AUC (area under hastighetsförvrängningskurvan), beroende på den perceptuella metriska används. Så vitt vi vet, är detta den första neurala nätverk arkitektur som kan överträffa JPEG vid bildkomprimering över de flesta bithastigheter på hastighets-förvrängning kurvan på Kodak dataset bilder, med och utan hjälp av entropi kodning.
I REF Toderici m.fl. publicerade en metod för bildkomprimering med hjälp av Recurrent Neural Networks (RNN).
24,041,818
Full Resolution Image Compression with Recurrent Neural Networks
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
14,006
Detta dokument beskriver och utvärderar Stochastic Fair Blue (SFB), en ny teknik för att säkerställa rättvisa bland ett stort antal flöden. SFB detekterar skalbart och hastighetsgränser som inte svarar genom användning av en märkningssannolikhet som härleds från BLUE:s köhanteringsalgoritm och ett Bloom-filter. Med hjälp av analys och simulering visar sig SFB effektivt hantera icke-responsiva flöden med hjälp av en extremt liten mängd tillståndsinformation.
Den stokastiska Fair BLUE (SFB) algoritm upptäcker och hastighetsbegränsningar oemottagliga flöden genom att använda bokföring bins som är organiserade hierarkiskt REF.
5,902,623
Stochastic fair blue: a queue management algorithm for enforcing fairness
{'venue': 'Proceedings IEEE INFOCOM 2001. Conference on Computer Communications. Twentieth Annual Joint Conference of the IEEE Computer and Communications Society (Cat. No.01CH37213)', 'journal': 'Proceedings IEEE INFOCOM 2001. Conference on Computer Communications. Twentieth Annual Joint Conference of the IEEE Computer and Communications Society (Cat. No.01CH37213)', 'mag_field_of_study': ['Computer Science']}
14,007
Att mäta semantisk textlikhet (STS) är en hörnsten i många NLP-tillämpningar. Olika från majoriteten av tillvägagångssätt, där ett stort antal parvisa likhetsfunktioner används för att representera ett textpar, vår modell har följande: (i) den kodar direkt inmatningstexter i relationella syntaktiska strukturer; (ii) förlitar sig på trädkärnor för att hantera funktionsteknik automatiskt; (iii) kombinerar både strukturella och funktion vektor representationer i en enda poängmodell, dvs. i Support Vector Reggression (SVR); och (iv) ger betydande förbättringar jämfört med de bästa STS-system.
Slutligen kombinerade REF relationssyntaktiska strukturer med SVR.
6,431,532
Learning Semantic Textual Similarity with Structural Representations
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,008
WSN omfattar vanligtvis avkänningsnoder med begränsad beräkningsförmåga och fordonsbaserad effekt. De sensed data i en WSN överförs från en enskild nod till en nätverkssänka på ett multi-hop-sätt. Eftersom överföringskostnaderna ofta är flera storleksordningar större än beräkningskostnaderna, kan WSN:s effektivitet förbättras genom aggregering av data i nätverk. Detta är dock problematiskt eftersom den aggregering som ska utföras beror på kraven för slutanvändaren / applikationen, och är antingen okänd vid tidpunkten för installationen eller förändringar över tiden. Genomförandet av fasta aggregeringsalgoritmer begränsar nätverkets användbarhet. Programvarubaserad implementering av dynamiska aggregeringstekniker ger den flexibilitet som krävs men har betydande bearbetning overhead, särskilt när nätverkets storlek ökar. I detta dokument minskar vi bearbetningen overhead genom att implementera dynamisk dataaggregation med hjälp av omkonfigurerbara klusterhuvuden (RCHs) baserade på Field Programmable Gate Arrays (FPGAs). Ett sådant genomförande ger den flexibilitet i dataaggregationsteknik som krävs i realtidstillämpningar, vilket leder till en betydande minskning av frågebehandlingstiden och den totala strömförbrukningen i nätet. Syftet med dokumentet är att ta itu med prestandaförbättringar i trådlösa sensornätverk (WSN) genom användning av omkonfigurerbara klusterhuvuden. Våra resultat visar att olika algoritmer för dataaggregation kan implementeras dynamiskt och effektivt på RCHs i körtid. Det föreslagna tillvägagångssättet är ett viktigt första steg mot genomförandet av programmerbara WSNS.
al., föreslog användningen av FPGA noder som kan konfigureras om för att utföra dataaggregation baserat på inkommande frågor REF.
42,576,046
Reconfigurable Hardware Based Dynamic Data Aggregation in Wireless Sensor Networks
{'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']}
14,009
Vi föreslår en helt konvolutionell enstegs objektdetektor (FCOS) för att lösa objektdetektion på ett perpixelförutsägelsesätt, analogt med semantisk segmentering. Nästan alla toppmoderna objektdetektorer som RetinaNet, SSD, YOLOv3 och Snabbare R-CNN förlitar sig på fördefinierade ankarlådor. Däremot är vår föreslagna detektor FOSS ankare låda fri, samt förslag gratis. Genom att eliminera den fördefinierade uppsättningen ankarboxar undviker FOSS helt den komplicerade beräkningen av ankarboxar, t.ex. beräkning av överlappning under utbildningen. Ännu viktigare är att vi också undviker alla hyper-parametrar relaterade till ankarboxar, som ofta är mycket känsliga för den slutliga detektionsprestandan. Med den enda icke-maximala dämpningen efter bearbetningen (NMS) uppnår FCOS med ResNeXt-64x4d-101 44,7 % i AP med en modell och enskalig testning, vilket överträffar tidigare enstegsdetektorer med fördelen att vara mycket enklare. För första gången visar vi en mycket enklare och flexibel detektionsram som ger förbättrad detektionsnoggrannhet. Vi hoppas att den föreslagna FCOS-ramen kan fungera som ett enkelt och kraftfullt alternativ för många andra uppgifter på instansnivå. Koden finns på: tinyurl.com/FCOsv1
FCOS REF löser objektdetektering på ett förutsägelsesätt per pixel baserat på ett helt konvolutionellt neutralt nätverk.
91,184,137
FCOS: Fully Convolutional One-Stage Object Detection
{'venue': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'journal': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
14,010
Abstract-We studerar det dynamiska problemet med tjänstemigration i mobila kantmoln som är värd för molnbaserade tjänster i nätverkskanten. Detta ger fördelarna med att minska overhead- och latency-nätet, men kräver tjänstemigreringar när användarplatser ändras över tid. Det är svårt att fatta dessa beslut på ett optimalt sätt på grund av osäkerheten i nodrörligheten och den eventuella icke-linjäriteten i migrations- och överföringskostnaderna. I detta dokument formulerar vi ett stegvist beslutsproblem för tjänstemigrering med hjälp av ramen för Markovs beslutsprocess (MDP). Vår formulering fångar upp allmänna kostnadsmodeller och ger ett matematiskt ramverk för att utforma en optimal policy för tjänstemigration. För att övervinna komplexiteten i att beräkna den optimala policyn, vi approximerar den underliggande stat utrymme genom avståndet mellan användaren och service platser. Vi visar att den resulterande MDP är exakt för enhetlig endimensionell rörlighet samtidigt som den ger en nära approximation för enhetlig tvådimensionell rörlighet med en konstant additiv felbegrepp. Vi föreslår också en ny algoritm och en numerisk teknik för att beräkna den optimala lösningen som är betydligt snabbare i beräkning än traditionella metoder baserade på värde eller policy iteration. Vi illustrerar effektiviteten i vår strategi genom simulering med hjälp av verkliga mobilitet spår av taxibilar i San Francisco.
Wang m.fl. I REF studerades problemet med dynamisk tjänstemigration i mobila kantmoln som är värd för molnbaserade tjänster vid nätverkskanten, och man formulerade ett successivt problem med beslutsfattande för tjänstemigrering med hjälp av ramen för Markovs beslutsprocess (MDP).
8,304,601
Dynamic service migration in mobile edge-clouds
{'venue': '2015 IFIP Networking Conference (IFIP Networking)', 'journal': '2015 IFIP Networking Conference (IFIP Networking)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
14,011
Det finns många skäl att förvänta sig att en förmåga att resonera i termer av objekt är en avgörande färdighet för alla allmänt intelligenta agenter. Ja, den senaste tidens maskininlärningslitteratur är full av exempel på fördelarna med objektliknande representationer: generalisering, överföring till nya uppgifter, och tolkningsbarhet, bland annat. Men för att resonera i termer av objekt, agenter behöver ett sätt att upptäcka och upptäcka objekt i den visuella världen - en uppgift som vi kallar oövervakade objekt upptäckt. Denna uppgift har fått betydligt mindre uppmärksamhet i litteraturen än dess övervakade motsvarighet, särskilt när det gäller stora bilder som innehåller många objekt. I det nuvarande arbetet utvecklar vi en neural nätverk arkitektur som effektivt behandlar denna stora bild, många objekt inställning. I synnerhet kombinerar vi idéer från Attention, Infer, Repeat (AIR), som utför oövervakade objekt upptäckt men inte skala bra, med den senaste utvecklingen i övervakad objektdetektering. Vi ersätter AIR:s stamnät med ett konvolutionellt (och därmed rumsligt invariantt) nätverk, och använder ett objektspecifikationssystem som beskriver objektens placering med avseende på lokala rutnätsceller snarare än bilden som helhet. Genom en serie experiment, visar vi ett antal funktioner i vår arkitektur: att, till skillnad från AIR, det kan upptäcka och upptäcka objekt i stora, många objekt scener, att det har en betydande förmåga att generalisera till bilder som är större och innehåller fler objekt än bilder som stött på under utbildning, och att det kan upptäcka och upptäcka objekt med tillräcklig noggrannhet för att underlätta icke-trivial nedströms bearbetning.
Spatially Invariant Delta, Infer, Repeat (SPAIR) REF försöker ta itu med detta problem genom att ersätta det återkommande nätverket med ett konvolutionsnätverk.
69,841,494
Spatially Invariant Unsupervised Object Detection with Convolutional Neural Networks
{'venue': 'AAAI', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,012
Abstract-Syftet med detta papper är att utveckla metoder som kan rekonstruera en bandbegränsad diskret-tidssignal från en oregelbunden uppsättning prover på okända platser. Vi definierar en lösning på problemet med hjälp av först en geometrisk och sedan en algebraisk synvinkel. Vi hittar platserna för den oregelbundna uppsättningen av prover genom att behandla problemet som ett kombinatoriskt optimeringsproblem. Vi använder en uttömmande metod och två nedstigande metoder: slumpmässig sökning och cykliska koordinatmetoder. De numeriska simuleringarna gjordes på tre typer av oregelbundna uppsättningar av platser: slumpmässiga uppsättningar; uppsättningar med jitter runt en enhetlig uppsättning; och periodiska icke-uniform uppsättningar. Dessutom utvecklar vi för den periodiska, icke-uniforma uppsättningen platser ett snabbt system som minskar problemets beräknings komplexitet genom att utnyttja den periodiska, icke-uniforma strukturen hos urvalsplatserna i DFT.
Problemet med återuppbyggnaden av en bandbegränsad signal från en oregelbunden uppsättning prover på okända platser behandlas i REF.
16,368,240
Reconstruction of Irregularly Sampled Discrete-Time Bandlimited Signals with Unknown Sampling
{'venue': 'IEEE Trans. Signal Process.', 'journal': 'IEEE Trans. Signal Process.', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
14,013
I detta dokument introducerar vi en XML-baserad Hierarkisk QoS Markup Language, kallad HQML, för att förbättra distribuerade multimediaapplikationer på World Wide Web (WWW) med kvalitet av tjänsten (QoS) kapacitet. Designen av HQML bygger på två observationer: (1) avsaknaden av ett systematiskt QoS-specifikation språk, som kan användas av distribuerade multimediaprogram på WWW för att utnyttja den senaste QoS-hanteringsteknik; och (2) kraften och populariteten av XML för att leverera rikt strukturerat innehåll över webben. HQML gör det möjligt för distribuerade multimediaprogram att ange alla typer av tillämpningsspecifika QoS-policyer och krav. Under körning, översätter HQML Executor HQML-filen till önskade datastrukturer och samarbetar med QoS-proxies som hjälper program i end-to-end QoS förhandling, installation och verkställighet. För att göra QoS-tjänster skräddarsydda efter användarnas önskemål och möta de utmaningar som osäkerheten i de distribuerade heterogena miljöerna innebär, presenteras utformningen av HQML som interaktiv och flexibel. För att göra det möjligt för programutvecklare att skapa HQML specifikationer korrekt och enkelt, har vi utformat och utvecklat en enhetlig visuell QoS programmeringsmiljö, kallad QoStalk. I QoStalk använder vi ett grammatiskt tillvägagångssätt för att utföra en konsekvent kontroll av de visuella QoS-specifikationerna och generera HQML-filer automatiskt. Slutligen introducerar vi den distribuerade QoS-kompilatorn, som utför automatiska kartläggningar mellan QoS-parametrar på applikations- och resursnivå för att avlasta applikationsutvecklaren från bördan av att hantera låga QoS-specifikationer.
I QoS-applikationsdomänen är HQML REF ett XML-baserat hierarkiskt QoS-markupspråk som gör det möjligt för applikationer att signalera QoS-egenskaper och krav på slutapplikationer och nätverkselement som kallas QoS-proxies.
13,372,241
An XML-based Quality of Service Enabling Language for the Web
{'venue': 'Journal of Visual Language and Computing, Special Issue on Multimedia Language for the Web', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,014
Abstract-Metoder för programvarutester baserade på Finite State Machines (FSM) har undersökts sedan början av 60-talet. Många av dessa metoder handlar om att generera en kontrollsekvens från en given FSM som är en inmatningssekvens som avgör om en tillämpning av FSM är felaktig eller korrekt. I detta papper anser vi att en av dessa metoder, som konstruerar en kontrollsekvens genom att minska problemet med att generera en kontrollsekvens till att hitta en kinesisk lantlig brevbärare tur på en graf som induceras av FSM; vi omformulerar de begränsningar som används i denna metod som en uppsättning Booleska formler; och använda en SAT lösare för att generera en kontroll sekvens av minimal längd.
Som ett exempel på användning för dom beräkning i MBT, använder REF SAT lösare för att generera kontrollsekvenser från ändliga tillstånd maskiner.
15,775,671
Using a SAT solver to generate checking sequences
{'venue': '2009 24th International Symposium on Computer and Information Sciences', 'journal': '2009 24th International Symposium on Computer and Information Sciences', 'mag_field_of_study': ['Computer Science']}
14,015
De djupbildsbaserade renderingsalgoritmer (DIBR) som används för 3D-videoapplikationer introducerar nya typer av artefakter främst belägna runt de upplösta regionerna. Eftersom DIBR-algoritmerna innefattar geometriska omvandlingar, introducerar de flesta av dem icke-uniforma geometriska förvrängningar som påverkar kantkonherensen i de syntetiserade bilderna. Sådana snedvridningar hanteras inte effektivt av de gemensamma måtten för bildkvalitetsbedömning som i första hand är avsedda för andra typer av snedvridningar. För att bättre kunna hantera specifika geometriska förvrängningar i DIBR-syntetiska bilder föreslår vi ett referensmått baserat på flerskalig bilddekomposition som använder morfologiska filter. Med hjälp av icke-linjära morfologiska filter i flerskalig bilddekomposition upprätthålls viktig geometrisk information såsom kanter över olika upplösningsnivåer. Kantförvrängning mellan referensbildens flerskaliga representationsdelband och den DIBR-syntetiserade bilden mäts exakt med hjälp av det genomsnittliga kvadratfelet. På detta sätt, områden runt kanter som är benägna att syntes artefakter betonas i den metriska poäng. Två versioner av morfologisk flerskalig metriska har undersökts: a) Morfologisk Pyramid Peak Signal-to-Noise Ratio metrisk (MP-PSNR) baserad på morfologisk pyramid sönderdelning, och b) Morfologisk Våget Peak Signal-to-Noise Ratio metrisk (MW-PSNR) baserad på morfologisk våget sönderdelning. Resultaten av de föreslagna mätvärdena har testats med hjälp av två databaser som innehåller DIBR-syntetiserade bilder: IRCCyN/IVC DIBR bilddatabas och MCL-3D stereoskopisk bilddatabas. Föreslagna mätvärden uppnår betydligt högre korrelation med mänskligt omdöme jämfört med de toppmoderna mätvärdena för bildkvalitet och jämfört med det testade mätvärdet avsett för syntesrelaterade artefakter. De föreslagna mätvärdena är beräkningseffektiva med tanke på att de morfologiska operatörerna endast omfattar heltalsnummer och enkla beräkningar som min, max och summa samt enkel beräkning av MSE. MP-PSNR har något bättre prestanda än MW-PSNR. Det har mycket god enighet med mänskligt omdöme, Pearsons 0.894, Spearman 0.77 när det testas på MCL-3D stereoskopisk bilddatabas. Vi har visat att PPNR har en särskilt god enighet med mänskligt omdöme när det beräknas mellan bilder på högre skalor av morfologiska flerskaliga representationer. Följaktligen föreslås förenklade och i huvudsak reducerade versioner av flerskaliga mått, med hänsyn till endast detaljerade bilder med högre nedbrytningsskalor. Den reducerade versionen av MP-PSNR har mycket god enighet med mänskligt omdöme, Pearsons 0,904, Spearman 0.863 med hjälp av IRCCyN/IVC DIBR bilddatabas.
Baserat på det faktum att PPNR är mer överensstämmande med människans bedömning när den beräknas i högre morfologiska nedbrytningsskalor, föreslog de vidare de reducerade versionerna av de två mätvärdena REF, dvs. MW-PSNR r och MP-PSNR r, vilket ger bättre prestanda jämfört med de fullständiga versionerna.
27,287,609
DIBR-synthesized image quality assessment based on morphological multi-scale approach
{'venue': None, 'journal': 'EURASIP Journal on Image and Video Processing', 'mag_field_of_study': ['Computer Science']}
14,016
Abstrakt. Vi föreslår den första automatiserade metoden för att uppskatta avstånd från frontalbilder av okända ansikten. Kamerorkalibrering är inte nödvändig, inte heller rekonstruktion av en 3D-representation av huvudets form. Vår metod är baserad på att automatiskt uppskatta positionen av ansikte och huvud landmärken i bilden, och sedan använda en regressator för att uppskatta avståndet från sådana mätningar. Vi samlade och kommenterade en datauppsättning av frontalporträtt av 53 individer som spänner över ett antal attribut (sex, ålder, ras, hår), var och en fotograferade från sju avstånd. Vi finner att vår föreslagna metod överträffar människor som utför samma uppgift. Vi observerar att olika fysiognomier systematiskt kommer att förvanska uppskattningen av avstånd, d.v.s. Vissa människor tittar närmare än andra. Vi upphör med vilka landmärken som är viktigare för denna uppgift.
Arbete av Burgos-Artizzu et al. REF använder regression för att uppskatta avståndet till en person baserat på automatiskt uppskattade positioner av ansikte och huvud landmärken i bilder.
9,801,910
Distance Estimation of an Unknown Person from a Portrait
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,017
Detektion av åtgärdsenhet (AU) blir nödvändigt för ansiktsanalys. Många föreslagna strategier står inför utmanande problem när det gäller att hantera anpassningen av olika regioner i ansiktet, effektiv fusion av tidsinformation och utbildning av en modell för flera AU-etiketter. För att bättre ta itu med dessa problem föreslår vi en ram för fördjupat lärande för AU-detektion med region av intresse (ROI) anpassning, integrerad multi-märkning lärande och optimal LSTM-baserad temporal fising. För det första är RoI-skärnät (ROI-nät) utformade för att se till att särskilt intresserade regioner av ansikten lär sig självständigt; varje delregion har ett lokalt konvolutionellt neuralt nätverk (CNN) - ett ROI-nät, vars konvolutionsfilter endast kommer att utbildas för motsvarande region. För det andra används flermärkt lärande för att integrera resultaten från de enskilda RoI-grödnäten, som lär sig olika AU:s inbördes relationer och förvärvar globala funktioner i olika delregioner för upptäckt av AU. Slutligen, det optimala urvalet av flera LSTM lager för att bilda den bästa LSTM Net utförs till bästa säkring temporal funktioner, för att göra AU förutsägelsen den mest exakta. Den föreslagna metoden utvärderas på två populära AU-detektionsdata, BP4D och Disfa, som presterar betydligt bättre än den senaste tekniken, med en genomsnittlig förbättring på cirka 13 % för BP4D respektive 25 % för Disfa.
Li et al Ref föreslog en ROI-ram för AU-detektering genom att beskära CNN-funktionskartor med information om ansiktsmarkeringar.
2,033,240
Action Unit Detection with Region Adaptation, Multi-labeling Learning and Optimal Temporal Fusing
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
14,018
De falska positiva frekvenserna (FPR) för ytbaserad gruppanalys av kortikal tjocklek, yta och volym utvärderades för parametrisk och icke-parametrisk klustervis korrigering för flera jämförelser för en rad utjämningsnivåer och klusterbildande tröskelvärden (CFT) med hjälp av verkliga data under gruppuppdrag som inte bör ge signifikanta resultat. För helkortikal ytanalys visade tjockleken måttlig inflation i parametriska FPR över den nominella nivån (10 % jämfört med 5 %). Ytyta och volym FPR var mycket högre (20-30 %). I analysen av interhemisfäriska tjockleksasymmetrier kontrollerades FPR väl genom parametrisk korrigering, men FPR för yt- och volymasymmetrier var fortfarande uppblåst. I samtliga fall kontrollerade icke-parametrisk permutation FPR på ett tillfredsställande sätt. Det konstaterades att uppblåsta parametriska FPR orsakades av kränkningar i de parametriska antagandena, nämligen en tyngre rumslig korrelation än Gaussian. Den icke-gaussiska rumsliga korrelationen kommer från anatomiska egenskaper som är unika för individer (t.ex. en patch av cortex något tjockare eller tunnare än genomsnittet) och är inte en biprodukt av skanning eller bearbetning. Tjocklek presterade bättre än yta och volym eftersom tjockleken inte kräver en Jacobisk korrigering. Att göra vetenskap är som att lösa ett pussel där varje pussel är en slutsats från en studie. Men till skillnad från en riktig pussel, inte alla bitar är korrekta. Ju mer felaktiga bitar, desto svårare är det att sätta ihop dem i en stor bild, så det är viktigt att kontrollera fraktionen av fel bitar. Vetenskapliga tidskrifter kräver i allmänhet att författarna beräknar sannolikheten för att deras positiva slutsatser kan uppstå under nollhypotesen (den falska positiva frekvensen, FPR) och i allmänhet (och godtyckligt) kräver att denna sannolikhet är mindre än 5% för publicering (Benjamin et al., 2017). När det gäller neuroimaging kompliceras beräkningen av FPR av det faktum att det finns tiotusentals mätningar (voxels) i en bild av hjärnan. Eftersom det inte är allmänt känt var en effekt av intresse kommer att uppstå, en FPR vanligtvis beräknas separat för varje voxel (så kallad "mass-univariat analys"). Dessa enhetliga FPR måste sedan korrigeras för tester över flera voxlar för att beräkna en slutlig FPR för studiens slut (även känd som den familjevisa felfrekvensen (FWE)). Detta är problemet med flera jämförelser. Flera tekniker finns för att lösa problemet med flera jämförelser. Historiskt sett har slumpmässig fältteori (RFT, Worsley et al., 1992; Friston et al., 1994; Forman et al., 1995) varit en mycket populär lösning för fMRI (Carp, 2012). RFT är en parametrisk metod som korrigerar för flera jämförelser med hjälp av antingen maximal statistik eller statistik som härrör från kluster av rumsligt anslutna voxels. För klusteranalysen reduceras bilden till grupper av sammanhängande Voxels (kluster) vars unika p-värden är mer signifikanta än vissa (arbitrativt definierade) klusterbildande tröskel (CFT). Den slutliga FPR är då sannolikheten för att se en kluster av den storleken av en slump. Clusterwise RFT korrigering kräver att CFT och utjämning nivåer vara höga; överträdelser av detta krav resulterar i konservativa FPRs (Friston et al., 1994; Hayasaka och Nichols, 2003). Monte Carlo (MC) simuleringar kan användas för att övervinna dessa krav (Hayasaka och Nichols, 2003). Vid MC-simulering jämnas vitt buller ut och tröskeleras och sedan extraheras klustren; efter många iterationer bestäms fördelningen av klusterstorlekar under nullen och används för att beräkna p-värdet för klustren i de verkliga uppgifterna. Medan MC simuleringar undvika begränsningar på CFT och nivå av jämnhet, de är fortfarande parametriska i den meningen att det fortfarande finns antaganden om formen på utjämning kärnan (vanligen Gaussian) och att den underliggande buller är Gaussian distribueras. RFT, MC och permutation antar i allmänhet att jämnheten i sig är konstant över hela bilden (dvs. rumslig stationaritet), även om metoder finns för att slappna av detta antagande (se Diskussion). På senare tid har oron för att kontrollera falska positiva effekter vid neuroimering ökat. Eklund et al., 2016, gjorde tester på vilotillståndet fMRI-data analyserade som uppgift och fann att de p-värden som genereras av både RFT- och MC-simuleringskombikorrigering var mellan 10 och 60 %, långt över den nominella 5%-nivån (Woo et al., 2014; fann en liknande effekt). Detta gav upphov till möjligheten att slutsatserna från många publicerade fMRI-studier är delvis eller helt felaktiga. De RFT FPRs bringades i linje genom att använda en högre CFT och utjämningsnivåer. Eklund m.fl., 2016 drog slutsatsen att orsaken till problemet var att ett avgörande antagande av både RFT och MC inte uppfylldes, nämligen att uppgifterna inte hade * Korresponderande författare. Atinoula A.
Klusterbaserade metoder har nu också utvärderats för ytbaserade gruppanalyser av kortikal tjocklek, yta och volym (med hjälp av FreeSurfer) REF, med en liknande slutsats att icke-parametrisk permutation test visade god kontroll av FWE för alla inställningar, medan traditionella Monte Carlo metoder misslyckas med att styra FWE för vissa inställningar.
207,208,901
False positive rates in surface‐based anatomical analysis
{'venue': None, 'journal': 'Neuroimage', 'mag_field_of_study': ['Psychology', 'Medicine', 'Computer Science']}
14,019
Sammanfattning av denna webbsida: Kroppsslitna sensorer i allmänhet och accelerometrar i synnerhet har använts i stor utsträckning för att upptäcka mänskliga rörelser och aktiviteter. Utförandet av varje typ av rörelse av varje enskild individ genererar sekvenser av tidsserier av avkännade data från vilka specifika rörelserelaterade mönster kan bedömas. Flera maskininlärningsalgoritmer har använts över fönstersegment av sensed data för att upptäcka sådana mönster i aktivitetsigenkänning baserat på mellanliggande funktioner (antingen handgjorda eller automatiskt inlärda från data). Det underliggande antagandet är att de beräknade funktionerna kommer att fånga statistiska skillnader som korrekt kan klassificera olika rörelser och aktiviteter efter en utbildningsfas baserad på avkännbara data. För att uppnå hög noggrannhet och återkallandegrad (och garantera att systemet generaliseras till nya användare) måste utbildningsuppgifterna innehålla tillräckligt med information för att kunna karakterisera alla möjliga sätt att utföra aktiviteten eller förflyttningen som ska upptäckas. Detta kan innebära stora mängder data och en komplex och tidskrävande utbildningsfas, som har visat sig vara ännu mer relevant när man automatiskt lär sig de optimala funktionerna som ska användas. I detta dokument presenterar vi en ny generativ modell som kan generera sekvenser av tidsserier för att karakterisera en viss rörelse baserat på tidselasticitetsegenskaperna hos de sensed data. Modellen används för att träna en hög med autokodare för att lära sig de speciella funktioner som kan upptäcka mänskliga rörelser. Resultaten av rörelsedetektering med hjälp av en nyskapad databas med information om fem användare som utför sex olika rörelser presenteras. Generaliseringen av resultaten med hjälp av en befintlig databas presenteras också i dokumentet. Resultaten visar att den föreslagna mekanismen kan uppnå godtagbara igenkänningsnivåer (F = 0,77) även vid användning av olika personer som utför en annan sekvens av rörelser och använder olika hårdvara.
Dessutom använder vi djupt lärande metoder som automatiskt kan lära sig funktionerna från en viss datauppsättning som innehåller en utbildning uppsättning och test uppsättning REF.
1,078,903
Time-Elastic Generative Model for Acceleration Time Series in Human Activity Recognition
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Computer Science', 'Medicine']}
14,020
Abstract Latent Semantic Analysis (LSA) är en allmänt använd informationsinsamling metod baserad på "bag-of-words" antagande. Men enligt den allmänna uppfattningen spelar syntaxen en roll i betydelsen av meningar. Således, förbättra LSA med del-of-tal (POS) information för att fånga sammanhanget av ordhändelser verkar vara teoretiskt möjligt förlängning. Metoden testas empiriskt på ett automatiskt uppsatsgraderingssystem med hjälp av LSA för jämförelse av dokumentlikviditet. En jämförelse på flera POS-förstärkta LSA-modeller rapporteras. Våra resultat visar att tillägg av kontextuell information i form av POS-taggar kan öka noggrannheten hos LSA-baserade poängmodeller upp till 10,77 procent.
REF använde en förbättrad LSA-strategi genom att inkludera information om delar av tal (POS) för att förbättra prestandan hos den grundläggande LSA-modellen för automatisk uppsatsgradering.
16,281,035
Applying Part-of-Seech Enhanced LSA to Automatic Essay Grading
{'venue': 'Proceedings of the 4th IEEE International Conference on Information Technology: Research and Education (ITRE 2006). Tel Aviv, Israel, 2006', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,022
Motiverad av det viktiga problemet med trängselkostnader (de beräknades vara $ 2 miljarder 1991) inom lufttransporter och observera att markförseningar är mer att föredra än flygburna förseningar, har vi formulerat och studerat flera heltal programmeringsmodeller för att tilldela markhållningsförseningar optimalt i ett allmänt nätverk av flygplatser, så att den totala (mark plus luftburen) förseningskostnaden för alla flygningar minimeras. All tidigare forskning om detta problem har begränsats till fallet med en enda flygplats, som försummar "nedåt-väg"-effekter på grund av överföring av förseningar mellan på varandra följande flygningar som utförs av samma flygplan. Vi formulerar flera modeller, och sedan föreslå en heuristisk algoritm som finner en genomförbar lösning till heltalsprogrammet genom avrundning den optimala lösningen av LP avkoppling. Slutligen presenterar vi omfattande beräkningsresultat med målet att få kvalitativa insikter om problemets beteende under olika kombinationer av inmatningsparametrarna. Vi visar att problemet kan lösas i rimliga beräkningstider för nätverk med minst så många som 6 flygplatser och 3000 flygningar. Problemen med trafikstockningar blir allt mer akuta på många stora europeiska och amerikanska flygplatser. För europeiska flygbolag beräknades den totala årliga förseningskostnaden på grund av trängsel (inklusive kostnader för passagerare) uppgå till 5 miljarder dollar 1989 (Terrab 1990). För amerikanska flygbolag påstås den direkta förseningskostnaden på grund av trängsel uppgå till cirka 2 miljarder dollar per år. Med tanke på att USA:s flygindustris totala vinster sällan överstiger 1 miljard dollar, är trängselproblem ett fenomen av obestridlig betydelse. Begränsad kapacitet är den största orsaken till trängsel. Problemet med flygplatskapaciteten är att den är mycket varierande, eftersom den är starkt påverkad av bland annat väderförhållanden (synlighet, vind, nederbörd). Det är inte ovanligt att man stöter på förhållandet 2:1 och till och med 3:1 mellan flygplatsens högsta och lägsta kapacitet. Lösningen på detta problem varierar beroende på den planerade tidshorisonten. Långsiktiga strategier omfattar uppförande av ytterligare flygplatser, uppförande av ytterligare banor vid befintliga flygplatser, förbättrad flygkontrollteknik och förfaranden samt användning av större luftfartyg. Tillvägagångssätt på medellång sikt omfattar en ändring av luftfartygsflödets temporalmönster för att eliminera perioder av "toppefterfrågan". Kortsiktiga strategier har en planeringshorisont på 6–12 timmar och omfattar, viktigast av allt, markhållningspolitik. Denna politik motiveras av det grundläggande faktum att flygburna förseningar är mycket dyrare än markförseningar, eftersom de förstnämnda inbegriper bränsle, underhåll, avskrivningar och säkerhetskostnader. Utgångspunkten för den underliggande markhållningspolitiken är således att man kan hålla ett flygplan på marken före start, så att flygplanet, när det anländer till sin destination, inte behöver vänta i luften innan landningen. Markhållning har använts i flera år. Federal Aviation Administration driver en Air Traffic Control System Command Center (ATCSCC, tidigare kallad Central Flow Control Facility) i Washington, D.C., utrustad med enastående informationsinsamling kapacitet. ATCSCC är dock i första hand beroende av sin expert på flygledare snarare än av beslutsstöd eller optimeringsmodeller för att utveckla flödesstyrning och markhållningsstrategier. Problemet med att fastställa hur mycket (om alls) varje luftfartyg måste hållas på marken före start (och eventuellt även i luften under flygningen, t.ex. genom en hastighetsminskning på rutten) för att minimera den totala (mark plus luftburen) förseningskostnaden kommer att kallas markhållningsproblem (GHP). Statiska och dynamiska versioner av GHP kan särskiljas. I de statiska versionerna, marken (och luftburna) håller beslutas en gång i början av Eftersom vart och ett av ett stort antal flygplan utför mer än en flygning på en viss dag, "nätverk" (eller "ner-the-road") effekter kan vara viktigt: När ett visst flygplan försenas, i många fall nästa flygning som utförs av samma flygplan kommer också att försenas. Vid en navflygplats kan dessutom ett flygplan som anländer sent försena avgången för flera flygningar, med tanke på den nuvarande tidtabellspraxis som betonar passageraröverföringar. Såvitt vi vet har tidigare forskning om GHP försummat nätverkseffekterna och begränsats till problemet med en enda flygplats. Odoni (1987) verkar vara den första som gett en systematisk beskrivning av problemet. Andreatta och Romanin-Jacur (1987) föreslog en dynamisk programmeringsalgoritm för en flygplats statiska probabilistiska GHP med en tidsperiod. Terrab föreslog en effektiv algoritm för att lösa den en-flygplats statiska deterministiska GHP, samt flera heuristik för en-flygplats probabilistiska GHP. Han föreslog också en två-flygplats formulering och en stängd tre-flygplats formulering för den statiska deterministiska GHP. Slutligen behandlade Richetta (1 991) enflygplatssdynamiska probabilistiska GHP. Det verkar som om det hittills inte har gjorts någon betydande forskning om effekterna av markhållningspolitiken på ett helt nätverk av flygplatser. I detta dokument behandlas GHP med flera flygplatser för första gången. Genom att använda en matematisk programmeringsmetod löser vi det deterministiska nätverket GHP i en allmän miljö. Vi föreslår flera heltal programmering formuleringar som har de viktiga fördelarna med att vara anmärkningsvärt enkel, samtidigt fånga de väsentliga specifikationer av problemet, och tillräckligt flexibel för att rymma olika grader av modellering detalj. Vi presenterar flera strukturella insikter om de parametrar som påverkar problemet, baserat på omfattande beräkningserfarenhet. Viktigast av allt är att vårt tillvägagångssätt gör det möjligt att lösa problem av realistisk storlek, t.ex. 6 flygplatser och 3 000 flygningar under rimliga beräkningstider. Vår strategi kan därför användas för att tilldela markinnehav för åtminstone en större del av nätverket av de viktigaste amerikanska eller europeiska flygplatserna. Även om vi fokuserar på den statiska multi-airport GHP, våra algoritmer kan också användas dynamiskt genom att lösa problemet, låt oss säga varannan timme, när bättre kapacitetsberäkningar blir tillgängliga. Konturerna i detta dokument är följande: Avsnitt 1 definierar problemet och ger heltal programmering formuleringar av tre versioner av det. I avsnitt 2 föreslås en heurism baserad på lösningen av en linjär programmeringsavslappning. Avsnitt 3 ger insikter om de parametrar som påverkar beteendet hos problemet, baserat på en omfattande serie av faktiska körningar. I avsnitt 4 sammanfattas slutligen dokumentets resultat och anges riktlinjer för framtida forskning.
Sedan, Multi-Airport Ground Holding Problem togs upp av REF.
7,432,916
The Multi-Airport GroundHolding Problem in Air Traffic Control
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
14,023
Robotar som navigerar genom människor måste kunna planera säkra, effektiva och mänskliga förutsägbara banor. Detta är ett särskilt utmanande problem eftersom det kräver att roboten förutsäger framtida mänskliga banor inom en publik där alla implicit samarbetar med varandra för att undvika kollisioner. Tidigare tillvägagångssätt till mänsklig bana förutsägelse har modellerat växelverkan mellan människor som en funktion av närhet. Men det är inte nödvändigtvis sant som vissa människor i vår omedelbara närhet rör sig i samma riktning kanske inte är lika viktigt som andra människor som är längre bort, men det kan kollidera med oss i framtiden. I detta arbete, föreslår vi social uppmärksamhet, en ny bana förutsägelse modell som fångar den relativa betydelsen av varje person när navigera i publiken, oavsett deras närhet. Vi demonstrerar vår metods prestanda mot ett toppmodernt tillvägagångssätt på två allmänt tillgängliga crowd dataset och analyserar den utbildade uppmärksamhetsmodellen för att få en bättre förståelse för vilka omgivande agenter människor tar hand om, när de navigerar i en publik.
I REF föreslås en uppmärksamhetsmodell som fångar den relativa betydelsen av varje omgivande fotgängare när de navigerar i folkmassan, oavsett deras närhet.
42,549,843
Social Attention: Modeling Attention in Human Crowds
{'venue': '2018 IEEE International Conference on Robotics and Automation (ICRA)', 'journal': '2018 IEEE International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Engineering', 'Computer Science']}
14,024
Vi studerar karakteriseringen och beräkningen av allmänna policyer för familjer av problem som delar en struktur som kännetecknas av en gemensam minskning till ett enda abstrakt problem. Policyer μ som löser det abstrakta problemet P har visat sig lösa alla problem Q som minskar till P under förutsättning att μ slutar i Q. I detta arbete kastar vi ljus över varför detta villkor för uppsägning är nödvändigt och hur det kan tas bort. Den viktigaste iakttagelsen är att det abstrakta problemet P fångar upp den gemensamma strukturen bland de konkreta problem Q som är lokala (Markovian) men saknar en gemensam struktur som är global. Vi visar hur en sådan global struktur kan fångas upp med hjälp av banbegränsningar som i många fall kan uttryckas som LTL-formler, vilket minskar den generaliserade planeringen till LTL-syntes. Dessutom, för en bred klass av problem som involverar heltal variabler som kan ökas eller minskas, kan bana begränsningar sammanställas bort, minska generaliserad planering till fullt observerbara icke-deterministisk planering.
QNP planeringsproblem kan enkelt översättas till LTL planering problem med FOND domäner, nåbarhet mål, och en viss typ av bana begränsningar som kan uttryckas som kompakt LTL formel REF.
20,027,397
Generalized Planning: Non-Deterministic Abstractions and Trajectory Constraints
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
14,025
System för djupinlärning (DL) tillämpas i allt högre grad på säkerhetskritiska områden som självkörande bilar. Det är av stor betydelse att säkerställa DL-systemens tillförlitlighet och robusthet. Befintliga testmetoder misslyckas alltid med att inkludera sällsynta ingångar i testdatasetet och uppvisar låg neurontäckning. I detta dokument föreslår vi DLFuzz, det första differential fuzzing testramverket för att vägleda DL-system som avslöjar felaktiga beteenden. DLFuzz muterar minutvis indatan för att maximera neurontäckningen och prediktionsskillnaden mellan den ursprungliga indatan och den muterade indatan, utan att manuellt märka ansträngningen eller korsreferera orakel från andra DL-system med samma funktionalitet. Vi presenterar empiriska utvärderingar av två välkända datauppsättningar för att visa dess effektivitet. Jämfört med DeepXplore, den state-of-the-art DL whitebox testing ram, DLFuzz behöver inte extra ansträngningar för att hitta liknande funktionella DL-system för korsreferenskontroll, men kan generera 338.59% mer kontraariala ingångar med 89.82% mindre perturbationer, i genomsnitt få 2,86% högre neuron täckning, och spara 20.11% tid konsumtion. • Programvara och dess konstruktion → Testning och felsökning av programvara;
DLFuzz REF utökar Differentiella testramar för DL-system med jämförelser av flera liknande ingångar, och behöver inte flera plattformar.
52,115,104
DLFuzz: differential fuzzing testing of deep learning systems
{'venue': 'ESEC/FSE 2018', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,026
Abstract-Vi presenterar SNAP (Safe och Nimble Active Packets), ett nytt system för programmerbara (eller aktiva) paket centrerad kring ett nytt lågnivå paketspråk. Till skillnad från tidigare aktiva paketstrategier är SNAP praktiskt: nämligen att lägga till betydande flexibilitet över IP utan att äventyra säkerhet och säkerhet eller effektivitet. I detta dokument visar vi hur man sammanställer från den välkända PLANEN för aktivt paketspråk [7] till SNAP, som visar att SNAP behåller PLANENS flexibilitet, ger bevisskisser av dess nya metod för resurskontroll och presenterar experimentella data som visar SNAP uppnår prestanda mycket nära en programvara IP router.
Programmerbara paket REF är centrerade kring ett lågnivåpaketspråk som ger flexibilitet över IP.
5,742,904
Practical programmable packets
{'venue': 'Proceedings IEEE INFOCOM 2001. Conference on Computer Communications. Twentieth Annual Joint Conference of the IEEE Computer and Communications Society (Cat. No.01CH37213)', 'journal': 'Proceedings IEEE INFOCOM 2001. Conference on Computer Communications. Twentieth Annual Joint Conference of the IEEE Computer and Communications Society (Cat. No.01CH37213)', 'mag_field_of_study': ['Computer Science']}
14,027
Förstärkt lärande (RL) har nyligen införts för interaktiva rekommendationssystem (IRS) på grund av dess typ av lärande från dynamiska interaktioner och planering för långsiktiga prestanda. Eftersom IRS alltid är med tusentals objekt att rekommendera (dvs. tusentals åtgärder), de flesta befintliga RL-baserade metoder, dock misslyckas med att hantera en så stor diskret åtgärd utrymme problem och därmed bli ineffektiv. Det befintliga arbete som försöker ta itu med det stora diskreta actionrymdsproblemet genom att utnyttja den djupa deterministiska politiska lutningsramen lider av inkonsekvensen mellan den kontinuerliga aktionsrepresentationen (aktörnätverkets resultat) och den verkliga diskreta handlingen. För att undvika sådan inkonsekvens och uppnå hög effektivitet och rekommendationseffektivitet föreslår vi i detta dokument en ram för trädstrukturerad policy Gradient Rekommendation (TPGR), där ett balanserat hierarkiskt klusterträd byggs över objekten och plockar ett objekt formuleras som att söka en väg från roten till ett visst löv av trädet. Omfattande experiment på noggrant utformade miljöer baserade på två verkliga datauppsättningar visar att vår modell ger överlägsen rekommendationsprestanda och betydande effektivitetsförbättringar jämfört med toppmoderna metoder.
En trädstrukturerad policygradient presenteras i REF för att undvika inkonsekvensen hos DDPG-baserade RS.
53,302,887
Large-scale Interactive Recommendation with Tree-structured Policy Gradient
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
14,028
Forskning 6 Tencent Youtu Lab 7 UC Merced (a) GT (b) SRCNN [5] (c) VDSR med närmaste (d) VDSR med bilinjär (e) VDSR med bikubisk (f) Vår bild 1. Visuella jämförelser av superupplösningsresultat med VDSR-metoden [17] (×4) med strukturer som återvinns med olika metoder, dvs. närmaste granne, bilinjär och bikubisk uppampling. Restuella inlärningsalgoritmer tar vanligtvis upp sampled bild som basstrukturer och lära sig detaljerna, skillnaden mellan upp sampled och mark sanningen bilder. Resterande inlärning kan dock inte korrigera lågfrekventa fel i strukturerna, t.ex. den struktur som erhålls av närmaste granne interpolation i c. Däremot är vår algoritm motiverad av nedbrytningen av en signal i strukturer och detaljer, vilket innebär både struktur och detaljinlärning och därmed leder till bättre resultat. I detta dokument föreslår vi en allmän dual convolutional neural network (DualCNN) för lågnivåseende problem, t.ex. super-upplösning, egg-bevarande filtrering, deraining och dehazaring. Dessa problem innebär vanligtvis en uppskattning av två komponenter i målsignalerna: strukturer och detaljer. Motiverade av detta, vår föreslagna DualCNN består av två parallella grenar, som respektive återhämtar strukturer och detaljer i ett slut-till-slut sätt. De återvunna strukturerna och detaljerna kan generera målsignalerna enligt formationsmodellen för varje enskild applikation. DualCNN är en flexibel ram för lågnivåseende uppgifter och kan enkelt införlivas i befintliga C-NN. Experimentella resultat visar att DualCNN effektivt kan tillämpas på många lågnivåseende uppgifter med gynnsam prestanda mot de senaste metoderna.
Under 2018 föreslog Pan et al en dual convolutional neural network (DualCNN) REF struktur bestående av två grenar för att lösa lågnivåseende problem.
5,039,079
Learning Dual Convolutional Neural Networks for Low-Level Vision
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
14,029
Abstract-Extraktion-Transformation-Loading (ETL) verktyg är delar av programvara som ansvarar för utvinning av data från flera källor, deras rensning, anpassning, och införande i ett datalager. I detta dokument fördjupar vi oss i den logiska optimeringen av ETL-processer och modellerar det som ett tillstånd-rymd-sökproblem. Vi betraktar varje ETL-arbetsflöde som ett tillstånd och tillverkar tillståndet utrymme genom en uppsättning korrekta tillstånd övergångar. Dessutom tillhandahåller vi en uttömmande och två heuristiska algoritmer för att minimera kostnaden för utförande av ett ETL arbetsflöde. Den heuristiska algoritmen med giriga egenskaper överträffar betydligt de andra två algoritmerna för en stor uppsättning experimentella fall.
I det förra arbetet har problemet med ETL-optimering modellerats som ett state-space sökproblem REF, med en uppsättning generiska likvärdiga övergångar som används för att generera nya (eventuellt optimala) tillstånd.
14,023,420
State-space optimization of ETL workflows
{'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']}
14,030
Abstruct-Stabiliteten i ett köande nätverk med ömsesidigt beroende servrar beaktas. Beroendet av servrar beskrivs genom definitionen av deras undergrupper som kan aktiveras samtidigt. Multihop paket radionät (PRN: s) ger en motivation för att överväga detta system. Vi studerar problemet med att schemalägga serveraktiveringen under de begränsningar som beror på beroendet bland dem. Prestandakriteriet för en schemaläggningspolitik m är dess genomströmning som kännetecknas av dess stabilitet region C, dvs. den uppsättning vektorer för ankomsthastigheter för vilka systemet är stabilt. En politik m, uppnås som är optimal i den meningen att dess stabilitet region Cn0 är en superuppsättning av stabilitetsområdet i varje annan schemaläggning politik. Stabilitetsregionen Cmo kännetecknas. Slutligen, vi studerar beteendet hos nätverket för ankomsthastigheter som ligger utanför stabilitetsområdet. Konsekvenser av resultaten i vissa typer av samtidig databas och parallella bearbetningssystem diskuteras.
Referensreferensreferensen visar att en sådan policy är genomströmning optimal, dvs. den stabiliserar alla ankomstvektor L i den maximala genomströmningsregionen – uppsättningen av s för vilka nätverket stabiliseras enligt någon policy.
14,964,341
Stability properties of constrained queueing systems and scheduling policies for maximum throughput in multihop radio networks
{'venue': 'IEEE Transactions on Automatic Control', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,031
Bakgrund. Programföretag måste hantera och refaktor tekniska skuldfrågor. Därför är det nödvändigt att förstå om och när refaktoring teknisk skuld bör prioriteras när det gäller att utveckla funktioner eller fixa buggar. Syfte. Målet med denna studie är att undersöka den befintliga kunskapsbasen inom programvaruteknik för att förstå vilka tekniska skuldprioriteringsstrategier som har föreslagits inom forskning och industri. Metod. Vi genomförde en Systematisk Literature Review bland 384 unika artiklar publicerade fram till 2018, efter en konsoliderad metodik tillämpad inom Software Engineering. Vi inkluderade 38 grundstudier. Resultat. Olika tillvägagångssätt har föreslagits för prioritering av tekniska skulder, som alla har olika mål och optimerar på olika kriterier. De föreslagna åtgärderna omfattar endast en liten del av det stora antalet faktorer som används för att prioritera den tekniska skulden kvalitativt i praktiken. Vi rapporterar en effektkarta över sådana faktorer. Det saknas dock empiriska och validerade verktyg. Slutsats. Vi noterade att teknisk skuldprioritering forskning är preliminär och det finns ingen enighet om vad som är de viktiga faktorerna och hur man ska mäta dem. Följaktligen kan vi inte betrakta aktuell forskning som avgörande och i detta dokument skisserar vi olika riktningar för nödvändiga
Lenarduzzi m.fl. REF genomförde en systematisk litteraturgranskning av den tekniska prioriteringen av skulder och identifierade endast tre dokument som använder affärsrelaterade begränsningar.
139,100,733
Technical Debt Prioritization: State of the Art. A Systematic Literature Review
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
14,032
Abstrakt. WeN anser en öppen och nyckellös kod (Enc, Dec) som används för att koda ett meddelande m och härleda ett kodord c = Enc(m). Kodordet kan motsträvigt manipuleras via en funktion f på F från någon "tamperande funktionsfamilj" F, vilket resulterar i ett manipulerat värde c = f (c). Vi studerar de olika typer av säkerhetsgarantier som kan uppnås i detta scenario för olika familjer F av manipulering attacker. För det första inleder vi den allmänna studien av manipuleringskoder, som måste upptäcka att manipulering ägde rum och utgång Dec(c ) = på. Vi visar att sådana koder finns för varje familj av funktioner F över n bit codewords, så länge som till F < 2 2 n är tillräckligt mindre än uppsättningen av alla möjliga funktioner, och funktionerna f på F ytterligare begränsas på två sätt: (1) de kan bara ha några fasta punkter x sådan att f (x) = x, (2) de måste ha hög entropy av f (x) över en slumpmässig x. Sådana koder kan också göras effektiva när påf = 2 poly(n). Därefter ser vi över icke-aducerbara koder, som infördes av Dziembowski, Pietrzak och Wichs (ICS '10) och kräver att Dec(c ) antingen avkodar till det ursprungliga meddelandet m, eller till något orelaterat värde (eventuellt) som inte ger någon information om m. Vi ger en modulär konstruktion av icke-aducerbara koder genom att kombinera manipuleringskoder och läckage-resilient koder. Den resulterande konstruktionen matchar Faust et al. (EUROCRYPT '14) men har ett mer modulärt bevis och förbättrade parametrar. Slutligen inleder vi den allmänna studien av kontinuerliga icke-aducerbara koder, som ger en icke-aducerbar garanti mot en angripare som kan manipulera ett kodord flera gånger. Vi definierar flera varianter av problemet beroende på: (I) om manipulering är ihållande och varje på varandra följande attack ändrar kodordet som har ändrats av tidigare attacker, eller om manipulering inte är ihållande och alltid tillämpas på det ursprungliga kodordet, (II) om vi kan "självförstöra" och stoppa experimentet om ett manipulerat kodord någonsin upptäcks vara ogiltigt eller om angriparen alltid kan manipulera mer. I fallet med ihållande manipulering och självförstörelse (svagaste fallet), får vi ett brett existensresultat, som i huvudsak motsvarar vad som är känt för standard icke-aducerbara koder. Vid ihållande manipulering och ingen självförstörelse (starkast fall) måste vi ytterligare begränsa manipuleringsfunktionerna till att ha få fasta punkter och hög entropi. De två mellanliggande ärendena innebär att det endast krävs en av de två ovannämnda begränsningarna.
Jafargholi och Wichs REF får olika smaker av kontinuerlig non-malleability för fall av manipulering funktioner med hög min-entropi eller få fasta punkter.
1,165,875
Tamper Detection and Continuous Non-malleable Codes
{'venue': 'TCC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,033
I detta dokument strävar vi efter att optimera feltoleransteknik baserad på en kontroll/omstartsmekanism, i samband med datormoln. Vårt bidrag är trefaldigt. (1) Vi får en ny formel för att beräkna det optimala antalet kontrollpunkter för molnjobb med varierande distributioner av felhändelser. Vår analys är inte bara generisk utan inget antagande om felsannolikhetsfördelning, utan också attraktivt enkelt att tillämpa i praktiken. (2) Vi utformar en adaptiv algoritm för att optimera effekten av kontroll av olika kostnader som kontroll/omstart overhead. (3) Vi utvärderar vår optimerade lösning i en verklig klustermiljö med hundratals virtuella maskiner och Berkeley Lab Checkpoint/Restart-verktyg. Misslyckande händelser emuleras via ett produktionsspår som produceras på ett storskaligt Google datacenter. Experiment bekräftar att vår lösning är ganska lämplig för Googles system. Vår optimerade formel överträffar Youngs formel med 3-10 procent, vilket minskar väggurslängderna med 50-100 sekunder per jobb i genomsnitt.
Sheng at al också föreslå en ny adaptiv algoritm för att optimera effekten av kontrollpointing avseende checkpointing eller starta om kostnader i REF.
1,683,027
Optimization of cloud task processing with checkpoint-restart mechanism
{'venue': "SC '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,034
Abstrakt. Nyligen tvålinjära parning såsom Weil parning eller Tate parning på elliptiska kurvor och hyperelliptiska kurvor har hittats olika tillämpningar i kryptografi. Flera identitetsbaserade (enkelt ID-baserade) kryptosystem med bilinjära parningar av elliptiska kurvor eller hyperelliptiska kurvor presenterades. Blind signatur och ringsignatur är mycket användbara för att ge användaren anonymitet och undertecknarens integritet. De spelar en viktig roll när det gäller att bygga upp e-handel. I detta dokument föreslår vi först ett ID-baserat system för blindsignaturer och ett ID-baserat system för ringsignaturer, som båda bygger på de tvåradiga paren. Vi analyserar också deras säkerhet och effektivitet.
I REF utvidgade Zhang och Kim konceptet till system med identitetsbaserade ringsignaturer (IDRS).
5,115,056
ID-Based Blind Signature and Ring Signature from Pairings
{'venue': 'ASIACRYPT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,035
I detta dokument studerar vi komplexiteten i beräkning av kapaciated parti storlek problem med en viss kostnadsstruktur som sannolikt kommer att användas i praktiska miljöer. För det enda objektet nya egenskaper införs, klasser av problem som kan lösas av polynom tid algoritmer i.dentifieras, och effektiva lösningsförfaranden ges. Vi visar att specialklasser är N-hårda, och att problemet med två objekt och oberoende konfigurationer är NP-hårda under förhållanden som liknar dem där det enda objekt problemet är lätt. Ämnen för ytterligare forskning diskuteras i det sista avsnittet, På permission från INPE, Brasilien. Forskning som delvis stöds av Conselho National de Pesquisas, Brasilien.
Computational komplexitet av kapaciated partisizing problem studeras i REF.
16,641,390
Computational Complexity of the Capacitated Lot Size Problem
{'venue': None, 'journal': 'Management Science', 'mag_field_of_study': ['Mathematics']}
14,036
n Internet eran, det traditionella Tower of Babel problem-hur vi läser och skriver främmande språk-har blivit ännu allvarligare. Enligt forskning, ungefär tre fjärdedelar av de webbsidor som icke-engelska talare behöver läsa är på engelska, medan för engelska talare, ungefär en fjärdedel av sidorna är på andra språk (se www.statistics.com/content/data pages/data5.html). Vi föreslår att man använder flerspråkiga webbdata och statistiska inlärningsmetoder för att hjälpa läsare att förstå främmande språk. Vi har skapat ett intelligent engelskt läs-assistanssystem som erbjuder ord- och frasöversättning med automatisk gruvdrift och rankingfunktioner baserade på dessa metoder. Full maskinöversättning har gjort betydande prestationer, men dess kvalitet har inte nått en tillfredsställande nivå. Figur 1 visar ett sådant systems kinesiska-till-engelska översättning. Engelska talare kan få en grov känsla av vad den ursprungliga kinesiska texten beskriver, men de kommer förmodligen att ha svårt att förstå detaljerna. (Till exempel maskinöversättningssystem, se Babelfish, http://babelfish. altavista.com.) Nästan 90 procent av internetanvändarna i Kina har utbildningsbakgrund efter gymnasiet, och de kan läsa engelska, även om deras förmågor varierar (se www.cnnnic.net.cn). För många av dem skulle därför en läs-assistans verktyg vara mer till hjälp än full maskin översättning. Situationen i andra asiatiska länder som Japan och Korea är mycket likartad. Vår engelska läs-assistanssystem, English Reading Wizard, ger ordbok samråd för ord och fraser genom två grundläggande funktioner: mus svävande och sökning. När en användare sätter markören på ett ord som cellulär, visar ERW ordet och dess översättningar i en popup-meny (som visas i den nedre delen av figur 2). När en användare söker efter ett ord som biologi genom att skriva in det i referensfönstret till vänster, visar ERW den detaljerade översättningen under Dictionary Lookup Results. Lokal ordbokskonsultation genom sökning fungerar när den lokala fliken väljs i referensfönstret, som har både grundläggande och personliga översättningar. Den senare erhålls från ett användarkompilerat lexikon. ERW stöder engelska-till-kinesiska och engelska-till-japanska översättningar. För att göra ERW lättare att använda har vi utvecklat två avancerade funktioner. Den första, översättningsutvinning, extraherar automatiskt översättningar av ord och fraser från webben när ingen översättning kan hittas i den lokala datorordboken. Denna funktion handlar om det lokala "out of vokabulär" problemet som ofta plågar ett främmande språk läs-assistans system. Den andra avancerade funktionen, översättningsrankning, sorterar översättningar av ord eller fraser till listor baserade på sammanhang. Eftersom många översättningar innehåller tvetydigheter, sparar rätt översättningar på toppen av översättningslistan användare tid i ordbok samråd. Den här funktionen rankar översättningar som finns i den lokala ordboken. Det finns flera kommersiella produkter som kan användas för att läsa främmande språk, t.ex. Ciba (www.iciba). net), och relaterad forskning har genomförts, 1 men inga andra produkter erbjuder ERW avancerade funktioner. Engelskan
REF presenterar ett engelskt lässtödssystem som föreslår översättningar av ord och fraser baserade på gruvteknik.
15,698,285
Using Bilingual Web Data to Mine and Rank Translations
{'venue': 'In Proceedings of IEEE Intelligent Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,037
Vi utforskar multitask modeller för neural översättning av tal, öka dem för att återspegla två intuitiva föreställningar. För det första inför vi en modell där den andra uppgiftsavkodningen får information från avkodningen av den första uppgiften, eftersom mellanliggande representationer på högre nivå bör ge användbar information. För det andra tillämpar vi legalisering som uppmuntrar till transitivitet och invertibilitet. Vi visar att tillämpningen av dessa begrepp på gemensamt utbildade modeller förbättrar prestandan i arbetet med att skriva ut och översätta tal med låga resurser. Det leder också till bättre prestanda när man använder uppmärksamhetsinformation för ord upptäckt över osegmenterad inmatning.
REF införde en triangelmodell för att överföra dekoderinformationen om den andra uppgiften till dekodern för den första uppgiften.
3,351,788
Tied Multitask Learning for Neural Speech Translation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
14,038
Vi presenterar en metod för att automatiskt generera en koncis sammanfattning genom att identifiera och syntetisera liknande element över relaterad text från en uppsättning av flera dokument. Vår strategi är unik i dess användning av språkgeneration för att omformulera ordalydelsen i sammanfattningen.
REF utvecklade en metod för att generera automatiska sammanfattningar genom att identifiera och syntetisera liknande element i en samling dokument.
7,031,344
Information Fusion In The Context Of Multi-Document Summarization
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,039
Abstrakt. Alla som ställer frågor i Community-baserade frågesvar (CQA) webbplatser som Yahoo! Svaren, Quora eller Baidus Zhidao, förväntar sig att få ett svar, och de blir frustrerade när deras frågor förblir obesvarade. Vi föreslår att ge en typ av "heads up" till frågare genom att förutsäga hur många svar, om alls, de kommer att få. Att ge en förebyggande varning till frågeställaren vid utstationeringstidpunkten bör minska frustrationseffekten och förhoppningsvis göra det möjligt för frågeställarna att formulera om sina frågor vid behov. Såvitt vi vet är detta det första försöket att förutsäga det faktiska antalet svar, förutom att förutsäga om frågan kommer att besvaras eller inte. Därför inför vi en ny förutsägelsemodell som är särskilt anpassad till hierarkiskt strukturerade CQA-platser. Vi utförde omfattande experiment på en stor corpus som omfattar 1 års svarsverksamhet på Yahoo! Svar, i motsats till en enda dag i tidigare studier. Dessa experiment visar att den F1 vi uppnådde är 24% bättre än i tidigare arbeten, främst på grund av den struktur som byggts in i den nya modellen.
Dror m.fl. Syftet med REF är att förutsäga om en fråga kommer att besvaras eller inte.
13,426,807
Will my question be answered? predicting Question Answerability in community question-answering sites
{'venue': 'ECML/PKDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,040
Sammanfattning Tidigare studier utvärderade sambandet mellan användning av protonpumpshämmare (PPI) och efterföljande risk för frakturer, men de visade tvetydiga resultat. Målet var därför att utvärdera detta samband i en annan studiepopulation. Våra fynd visar att det troligen inte finns något orsakssamband mellan PPI-användning och höftfrakturrisk. Inledning Tidigare studier utvärderade sambandet mellan PPI-användning och efterföljande frakturrisk, men de visade tvetydiga resultat. För att ytterligare testa dessa motstridiga resultat var syftet med denna studie att utvärdera sambandet mellan användningen av PPI och risken för höft - och lårfrakturer i en annan studiepopulation. Metoder En fallkontrollstudie utfördes med hjälp av data från det nederländska PHARMO-systemet. I studiepopulationen ingick 6 763 fall i åldern 18 år och äldre med en första höft- och lårfraktur under inskrivningen och 26 341 ålders-, köns- och regionmatchade kontroller. Resultat Nuvarande användare av PPI hade en ökad risk för höft - / lårfraktur som gav ett justerat oddsförhållande (AOR) på 1, 20 (95% KI 1, 04- 1, 40). Frakturrisken minskade med ökande användningstid, vilket resulterade i AOR på 1, 26 (95% KI 0,94- 1,68) under de första 3 månaderna, 1,31 (95% KI 0,97-1,75) mellan 3 och 12 månader, 1,18 (95% KI 0,92-1,52) mellan 13 och 36 månader och 1,09 (95% KI 0,81-1,47) för användning längre än 36 månader. Slutsats Våra resultat visar att det troligen inte finns något orsakssamband mellan PPI-användning och höftfrakturrisk. Den observerade associationen kan vara ett resultat av ouppmätta förvrängningar: även om den nuvarande användningen av PPI var förknippad med en 1,2-faldig ökad risk för höft- och lårfrakturer, dämpades den positiva associationen med längre durationer av kontinuerlig användning. Våra fynd stöder inte att utsättning av PPI minskar risken för höftfrakturer hos äldre patienter.
Hemiparetisk gång är direkt kopplad till en ökad risk för fall som observerats efter stroke, vilket fördubblar risken för höftfrakturer REF.
10,413,618
Use of proton pump inhibitors and risk of hip/femur fracture: a population-based case-control study
{'venue': 'Osteoporosis International', 'journal': 'Osteoporosis International', 'mag_field_of_study': ['Medicine']}
14,041
Abstrakt. Att förstå de utmaningar som verkliga projekt står inför i föränderliga variabilitetsmodeller är en förutsättning för att ge tillräckligt stöd till sådana företag. Vi studerar utvecklingen av en modell som beskriver funktioner och konfigurationer i en stor produktlinje – variabilitetsmodellen för Linuxkärnan. Vi analyserar denna utveckling kvantitativt och kvalitativt. Vårt primära fynd är att Linuxkärnmodellen verkar utvecklas förvånansvärt smidigt. Under den analyserade perioden hade antalet funktioner fördubblats och fortfarande var modellens strukturella komplexitet ungefär densamma. Dessutom ger vi en fördjupad titt på effekten av kärnans utvecklingsmetoder på utvecklingen av dess modell. Vi inkluderar också bevis på att redigeringsverksamhet tillämpas i praktiken, bevis på utmaningar i upprätthållandet av stora modeller, och en rad rekommendationer (och öppna problem) för byggare av modelleringsverktyg.
Lotufo m.fl. REF studerar utvecklingen av variabilitetsmodellen för Linuxkärnan över tid genom FM:s strukturella metriska utveckling (modellstorlek, antal blad, etc.)..............................................................................................
8,320,787
Evolution of the Linux kernel variability model
{'venue': 'in SPLC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,042
Abstract-Ett optiskt nät är för dyrt för att fungera som bredbandsnät. Å andra sidan kan ett rent trådlöst ad hoc-nät med n-noder och en total bandbredd på W-bitar per sekund inte tillhandahålla tillfredsställande bredbandstjänster eftersom pernoden minskar i takt med att antalet användare blir stort. I detta dokument föreslår vi ett hybridt trådlöst nätverk, som är ett integrerat trådlöst och optiskt nätverk, som bredbandsanslutningsnät. Speciellt antar vi en hybrid trådlös nätverk som består av n slumpmässigt distribuerade normala noder, och m regelbundet placerade basstationer anslutna via ett optiskt nätverk. En källnod överför till sin destination endast med hjälp av normala noder, dvs. i ad hoc-läge, om destinationen kan nås inom L (L ≥ 1) hoppar från källan. I annat fall kommer överföringen att ske i infrastrukturläget, dvs. med hjälp av basstationer. Två överföringslägen delar samma bandbredd av W-bitar/sec. Vi studerar först genomströmningskapaciteten hos ett sådant trådlöst hybridnät och observerar att genomströmningskapaciteten i hög grad beror på den maximala humlemängden L och antalet basstationer m. Vi visar att genomströmningskapaciteten hos ett trådlöst hybridnät kan skala linjärt med n endast om m = och när vi tilldelar all bandbredd till infrastrukturdriften. Vi undersöker sedan fördröjningen i hybrida trådlösa nätverk. Vi finner att den genomsnittliga paketfördröjningen kan upprätthållas så lågt som och (1) även när per-noden genomströmningskapacitet är och (W ).
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. Ref först undersöktes med hjälp av -maximal-hop resursallokeringsstrategi i hybrida trådlösa nätverk och påpekade att genomströmningen i hög grad berodde på antalet maximala humle och basstationer.
15,846,300
Capacity and delay of hybrid wireless broadband access networks
{'venue': 'IEEE J. Sel. Areas Commun.', 'journal': 'IEEE J. Sel. Areas Commun.', 'mag_field_of_study': ['Computer Science']}
14,043
Abstrakt. Vi betraktar problem med bildomvandling, där en indatabild omvandlas till en utdatabild. Nya metoder för sådana problem tränar normalt feed-forward konvolutionella neurala nätverk med hjälp av en per-pixel förlust mellan utdata och mark-truth bilder. Parallellt arbete har visat att högkvalitativa bilder kan genereras genom att definiera och optimera perceptuella förlustfunktioner baserat på hög nivå funktioner som extraheras från preutbildade nätverk. Vi kombinerar fördelarna med båda tillvägagångssätten och föreslår användning av perceptuella förlustfunktioner för utbildning av feed-forward-nätverk för bildomvandlingsuppgifter. Vi visar resultat på överföring av bildstil, där ett feed-forward-nätverk utbildas för att lösa det optimeringsproblem som Gatys et al föreslår i realtid. Jämfört med den optimeringsbaserade metoden ger vårt nätverk liknande kvalitativa resultat men är tre storleksordningar snabbare. Vi experimenterar också med en-bild super-upplösning, där ersätta en per-pixel förlust med en perceptuell förlust ger visuellt tilltalande resultat.
På senare tid, Johnson m.fl. REF föreslog att man skulle använda de perceptuella förlustfunktionerna för att utbilda ett feed-forward-nätverk.
980,236
Perceptual Losses for Real-Time Style Transfer and Super-Resolution
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,044
Det har upprepade gånger visats att iterativ relevans återkoppling är en mycket effektiv lösning för innehållsbaserad bildsökning. Men inget befintligt system skalar graciöst till hundratusentals eller miljoner bilder. Vi presenterar ett nytt tillvägagångssätt som kallas Hierarki och Expanderable Adaptive Trace (HEAT) för att ta itu med detta problem. Vårt tillvägagångssätt modulerar on-the-fly upplösningen av den interaktiva sökningen i olika delar av bildsamlingen, genom att förlita sig på en hierarkisk organisation av de bilder som beräknas off-line. Internt är strategin att upprätthålla en korrekt approximation av sannolikheterna för relevansen av de enskilda bilderna samtidigt som man fastställer en övre gräns för den erforderliga beräkningen. Vårt system jämförs på ImageNet-databasen med det toppmoderna tillvägagångssätt som det utökar, genom att genomföra användarutvärderingar på en delsamling av 33.000 bilder. Dess skalbarhet visas sedan genom att man utför liknande utvärderingar på 1.000.000 bilder.
Vår storskaliga HEAT-ramverk REF använder en hierarkisk trädliknande organisation av bildsamlingen.
857,551
HEAT: Iterative relevance feedback with one million images
{'venue': '2011 International Conference on Computer Vision', 'journal': '2011 International Conference on Computer Vision', 'mag_field_of_study': ['Computer Science']}
14,045
På grund av utmanande applikationer som samarbetsfiltrering har problemet med matriskomplettering studerats i stor utsträckning under de senaste åren. Olika metoder bygger på olika strukturantaganden på matrisen i handen. Här fokuserar vi på slutförandet av en (eventuellt) lågrankad matris med binära poster, det så kallade 1-bitars matriskompletteringsproblemet. Vår strategi bygger på verktyg från maskininlärningsteori: empirisk riskminimering och dess konvexa avkopplingar. Vi föreslår en algoritm för att beräkna en variationsmässig approximation av pseudo-baksidan. Tack vare konvex avslappning, motsvarande minimering problem är bi-konvex, och därmed metoden beter sig bra i praktiken. Vi studerar också resultatet av denna variations approximation genom PAC-bayesianska inlärningsgränser. Tvärtom mot tidigare arbeten som fokuserade på övre gränser på skattningsfel av M med olika matrisnormer, kan vi härleda en PAC som är bunden till förutsägelsen fel av vår algoritm. Vi fokuserar i huvudsak på konvex avkoppling genom gångjärnsförlusten, där vi presenterar den fullständiga analysen, en komplett simuleringsstudie och ett test på MovieLens datauppsättning. Men vi diskuterar också en variationsmässig approximation för att hantera den logistiska förlusten.
Även om analysen av PAC-bayesianska gränser, REF utvärderade resultatet av 1-bitars matriskomplettering.
23,177,345
1-bit Matrix Completion: PAC-Bayesian Analysis of a Variational Approximation
{'venue': 'Machine Learning, 2018, vol. 107, no. 3, pp. 579-603', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
14,046
ABSTRACT Emotion orsakar extraktion är en utmanande uppgift för den finkorniga känsloanalysen. Även om några studier har tagit upp uppgiften med hjälp av klassificeringsmetoder på klausulnivå, har de flesta av dem delvis ignorerat kontextinformation på känslonivå. För att på ett heltäckande sätt utnyttja informationen föreslår vi en ny metod som bygger på att lära sig rangordna för att identifiera känsloorsaker ur ett informationssökningsperspektiv. Vår metod syftar till att rangordna kandidatklausuler med avseende på vissa framkallade känslor i analogi med frågenivå dokumentrankning i informationssökning. För att lära oss effektiva modeller för rankning av klausuler representerar vi kandidatklausuler som vektorer med både känslooberoende egenskaper och känsloberoende egenskaper. Emotion-oberoende egenskaper extraheras för att fånga möjligheten att en klausul förväntas framkalla en känsla, och känslor-beroende egenskaper extraheras för att fånga relevansen mellan kandidat orsaka klausuler och deras motsvarande känslor. Vi undersöker tre metoder för att lära sig att rangordna för känsloorsaksextraktion i vår metod. Vi utvärderar resultatet av vår metod på en befintlig datauppsättning för känsloorsaksextraktion. De experimentella resultaten visar att vår metod är effektiv i känsloorsaksextraktion, vilket avsevärt överträffar de state-of-the-art baslinjemetoderna i termer av precision, recall, och F-mått. INDEX TERMS Känsloanalys, känslor orsakar extraktion, naturligt språk bearbetning, känslor analys, lära sig att rangordna.
I REF föreslogs en metod som bygger på att man lär sig att omvärdera den sökandes känslor, vilket leder till klausuler där man tar fram ett antal känsloberoende och känslooberoende egenskaper.
61,811,930
Extracting Emotion Causes Using Learning to Rank Methods From an Information Retrieval Perspective
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
14,047
Vi implementerar och experimentellt utvärdera aktualitet och energiförbrukning beteenden av fjorton Real-Time Dynamic Voltage och frekvensskalning (RT-DVFS) schemaläggare på två hårdvaruplattformar. Schemaläggningarna inkluderar bland annat CC-EDF, LA-EDF, REUA, DRA och AGR1, och hårdvaruplattformarna inkluderar Intel i5-processorn och AMD Zacate-processorn. Våra studier visar att mäta CPU strömförbrukning som kuben av CPU-frekvens -som ofta görs i den simuleringsbaserade RT-DVFS litteratur -ignores tomgångstillstånd CPU strömförbrukning, som är betydligt mindre än den aktiva strömförbrukningen. Följaktligen kompenseras effektbesparingar som erhålls genom att man optimerar aktiv effekt (dvs. RT-DVFS) genom att man utför uppgifter tidigare genom att köra med hög frekvens och snabbt övergå till tomgångstillståndet (dvs. ingen DVFS). Således, den aktiva energiförbrukningen besparingar av RT-DVFS-teknikerna" avslöjas av våra mätningar är betydligt mindre än deras simuleringsbaserade besparingar rapporteras i litteraturen.
Saha och Ravindran REF har implementerat fjorton DVS-algoritmer i ChronOS realtid Linuxkärnan och utvärderat deras energieffektivitet på två maskinvaruplattformar, inklusive en Intel i5-processor och en AMD Zacate-processor.
8,896,192
An experimental evaluation of real-time DVFS scheduling algorithms
{'venue': "SYSTOR '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,048
Abstrakt. På grund av den ökande användningen av molntjänster och mängden energi som används av datacenter, finns det ett växande intresse för att minska energiförbrukningen och koldioxidavtryck av datacenter. Cloud datacenter använder virtualiseringsteknik för att vara värd för flera virtuella maskiner (VM) på en enda fysisk server. Genom att tillämpa effektiva algoritmer för placering av virtuella maskiner kan molnleverantörerna öka energieffektiviteten och minska koldioxidavtrycket. Tidigare arbeten har fokuserat på att minska den energi som används inom ett enda eller flera datacenter utan att beakta deras energikällor och effektanvändning effektivitet (PUE). I detta dokument föreslås däremot en ny algoritm för placering av virtuella maskiner för att öka den miljömässiga hållbarheten genom att ta hänsyn till distribuerade datacenter med olika koldioxidavtryck och PUES. Simuleringsresultat visar att den föreslagna algoritmen minskar koldioxidutsläppen och energiförbrukningen, samtidigt som den bibehåller samma servicekvalitetsnivå jämfört med andra konkurrerande algoritmer.
REF föreslår en algoritm för placering av virtuella maskiner i distribuerade likspänningssystem genom att utveckla molnarkitekturen Energy and Carbon-Efficient (ECE).
1,535,890
Energy and carbon-efficient placement of virtual machines in distributed cloud data centers
{'venue': 'Euro-Par', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,049
Data som samlas in från mobiltelefoner har potential att ge insikt i individers relationsdynamik. I detta dokument jämförs observationsdata från mobiltelefoner med standarddata från självrapportering. Vi finner att informationen från dessa två datakällor är överlappande men distinkt. Till exempel, självrapporter av fysisk närhet avviker från mobiltelefon register beroende på recensency och hälsa i interaktionen. Vi visar också att det är möjligt att exakt härleda 95% av vänskapen baserat enbart på observationsdata, där vändyader uppvisar distinkta temporala och rumsliga mönster i sin fysiska närhet och anropsmönster. Dessa beteendemönster, i sin tur, tillåter förutsägelse av individuella-nivå resultat såsom arbetstillfredsställelse. engineering-sociala system en relationell inference på sociala nätverk analys. reality mining relational scripts T han fält ägnas åt studien av systemet för mänskliga interaktioner-sociala nätverk analys-har begränsats i noggrannhet, bredd och djup på grund av sin tillit till självrapportera data. Studier i sociala nätverk som bygger på självrapportering av relationsdata omfattar vanligtvis både ett begränsat antal personer och ett begränsat antal tidpunkter (vanligtvis ett). Som ett resultat av detta har analysen av sociala nätverk i allmänhet begränsats till att undersöka små, väl avgränsade populationer, med ett litet antal ögonblicksbilder av interaktionsmönster (1). Även om viktigt arbete har gjorts under de senaste 30 åren för att analysera förhållandet mellan självrapporterat och observerat beteende, skrivs en stor del av den sociala nätverkslitteraturen som om självrapporterade data är beteendedata. Det finns dock en liten men framväxande tråd av forskning som undersöker sociala kommunikationsmönster baserat på direkt observerbara data såsom e-post (2, 3) och samtalsloggar (4, 5). Här visar vi kraften i att samla inte bara kommunikationsinformation utan också lokalisering och närhetsdata från mobiltelefoner under en längre period, och jämför det resulterande beteende sociala nätverket med självrapporterade relationer från samma grupp. Vi visar att par av individer som rapporterar sig själva som vänner uppvisar distinkta beteendesignaturer som mäts endast av mobiltelefondata. Dessutom, dessa rent objektiva mått av beteende visar kraftfulla relationer med viktiga resultat av intresse på individuell nivå särskilt, tillfredsställelse. Reality Mining-studien följde 94 personer som använde mobiltelefoner förinstallerade med flera delar av programvara som inspelade och skickade forskarens data om samtalsloggar, Bluetooth-enheter i närheten av cirka fem meter, mobiltorns-ID, applikationsanvändning och telefonstatus (6, 7). Försökspersonerna observerades med hjälp av dessa mätningar under nio månader och inkluderade studenter och fakulteter från två program inom en större forskningsinstitution. Vi samlade också in självrapporterande relationsdata från varje individ, där försökspersoner tillfrågades om deras närhet till, och vänskap med, andra. De tillfrågades också om deras tillfredsställelse med sin arbetsgrupp Fullständiga uppgifter om datainsamling och variabel konstruktion finns i SI-texten. Vi kommer nedan att hänvisa till uppgifter som samlats in enbart från mobiltelefoner som "beteendeuppgifter" i motsats till "självrapporteringsdata". Vi gjorde tre analyser av dessa data. Först undersökte vi sambandet mellan självrapportering och beteendedata. För det andra analyserade vi om det fanns beteenden som identifierades i mobiltelefondata som var karakteristiska för vänskap. För det tredje studerade vi förhållandet mellan beteendedata och individuell tillfredsställelse. Beteende kontra självrapporteringsdata. Tillförlitligheten av befintliga åtgärder för relationer har varit föremål för skarp debatt under de senaste 30 åren, börjar med en rad banbrytande studier där det konstaterades att beteendeobservationer var förvånansvärt svagt relaterade till rapporterade interaktioner (8-10). Det finns flera lager av kognitiva filter som påverkar om ett ämne rapporterar ett beteende (11). Befintlig forskning tyder på att människor är bra på att minnas långsiktiga, men inte kortsiktiga, sociala strukturer (12). Vi undersöker om det finns systematiska förutfattade meningar i minnet som har observerats i andra områden med avseende på mänskligt minne (13), särskilt om det finns recensus och hälsa fördomar i erinran om fysisk närhet. En slumpmässig fördomsfullhet är en fråga där minnen är fördomsfulla mot den senaste tidens händelser. En fördomsfull inställning är att minnen är fördomsfulla mot mer levande händelser. Här fångar vi recensens genom mängden interaktioner under en bestämd period före undersökningen, och hälsa genom om individen i fråga är en vän eller icke-vän. Vi testar för recensus och hälsa fördomar genom att jämföra självrapporterad närhet till observerad närhet, undersöka om självrapporter var partiska mot nyligen och framträdande närhet. Närmare bestämt tillfrågades försökspersonerna om deras typiska närhet till de andra individerna i studien. Dessa självrapporter jämfördes med genomsnittlig daglig närhet baserad på Bluetooth-skanningen. Även om de flesta (69%) observerade närhet på 0 rapporterades som icke-närhet, när närhet rapporterades, var det typiskt överskattat: Den genomsnittliga rapporterade närheten var 87 min per dag medan den genomsnittliga observerade närheten var endast 33 min per dag. Vi fann också att för närheten 0, vänner var mycket mer exakt på rapportering närhet än icke-vänner. I detta fall fanns det en statistiskt signifikant men liten korrelation mellan observerad och rapporterad närhet bland individer som arbetade tillsammans men inte tog hänsyn till varandra vänner (r.155, P på 0.001), medan det fanns en betydligt starkare relation för vänner (r på 412, P på 0,001). Dessutom fann vi att när ämnen tillfrågades om långsiktiga närhetsmönster, hade den senaste närhet en stor och betydande (P 0.001)
REF analyserade kontinuerlig mobil loggning platser som samlats in från ett experiment på MIT, studerade beteendestrukturen i den dagliga rutinen för eleverna, och utforskade enskilda community tillhörigheter baserat på några a priori information av ämnena.
9,791,197
Inferring friendship network structure by using mobile phone data
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Medicine', 'Computer Science']}
14,050
Metadatauppdateringar, såsom skapande av filer och blocktilldelning, har konsekvent identifierats som en källa till prestanda, integritet, säkerhet och tillgänglighetsproblem för filsystem. Mjuka uppdateringar är en implementationsteknik för lågkostnadssekvensering av finkorniga uppdateringar till cacheblock. Med hjälp av mjuka uppdateringar för att spåra och genomdriva metadata uppdatering beroenden, ett filsystem kan säkert använda fördröjda skriver för nästan alla filoperationer. Denna artikel beskriver mjuka uppdateringar, deras införlivande i 4.4BSD snabb filsystem, och de resulterande effekterna på systemet. Vi visar att ett diskbaserat filsystem med hjälp av mjuka uppdateringar uppnår minnesbaserad filsystemprestanda samtidigt som det ger starkare integritet och säkerhetsgarantier än de flesta diskbaserade filsystem. För arbetsbelastningar som ofta utför uppdateringar på metadata (t.ex. att skapa och ta bort filer), förbättrar detta prestandan med mer än en faktor på två och upp till en faktor på 20 jämfört med den konventionella synkrona skrivmetoden och med 4 -19 % jämfört med en aggressiv loggningsmetod. Dessutom kan mjuka uppdateringar förbättra filsystemets tillgänglighet genom att delegera kraschåterhämtningshjälp (t.ex. fsck-verktyget) till en valfri och bakgrundsroll, vilket minskar filsystemets återhämtningstid till mindre än en sekund. Tillstånd att göra digital / papperskopia av en del av eller allt detta verk för personligt eller klassrum användning beviljas utan avgift förutsatt att kopiorna inte görs eller distribueras för vinst eller kommersiella fördelar, upphovsrättsmeddelandet, titeln på publikationen, och dess datum visas, och meddelande ges att kopiering är med tillstånd av ACM, Inc. Att kopiera på annat sätt, att publicera, att posta på servrar, eller att omfördela till listor, kräver föregående specifikt tillstånd och / eller en avgift. Allmänna villkor: Prestanda, Tillförlitlighet, Design, Experimentering, Mätning, Säkerhet Ytterligare Key Words och meningar: Filsystem, metadata, integritet, felåterställning, diskcache, write-back caching, fördröjda skriver I filsystem, metadata (t.ex. kataloger, inoder och fria blockkartor) ger struktur till rå lagringskapacitet. Metadata består av pekare och beskrivningar för att länka flera disksektorer till filer och identifiera dessa filer. För att vara användbart för ihållande lagring måste ett filsystem bevara integriteten hos sina metadata inför oförutsägbara systemkrascher, t.ex. strömavbrott och fel i operativsystemet. Eftersom sådana krascher vanligtvis resulterar i förlust av all information i flyktigt huvudminne, måste informationen i icke-flyktig lagring (dvs. disk) alltid vara tillräckligt konsekvent för att deterministiskt rekonstruera en sammanhängande filsystem tillstånd. Specifikt, den on-disk bilden av filsystemet får inte ha någon dinglande pekare till oinvigt utrymme, ingen tvetydig resurs ägande orsakas av flera pekare, och inga levande resurser som det inte finns några pekare. Upprätthållandet av dessa invarianter kräver i allmänhet sekvensering (eller atomgruppering) av uppdateringar av små metadataobjekt pådisk. Ur prestandasynpunkt resulterar den senaste tidens och förutspådda framtida tekniktrender i en växande skillnad mellan bearbetningsprestanda och diskåtkomsttider. Denna skillnad, i kombination med ökande huvudsakliga minnesstorlekar, dikterar att högpresterande filsystem aggressivt använder caching tekniker för att undvika diskåtkomster och dölja disk latenser. För metadatauppdateringar, som kännetecknas av stark rumslig och temporal lokalitet och av små storlekar i förhållande till enheterna för diskåtkomst, betyder detta cachelagring. Write-back caching kan avsevärt förbättra metadata update prestanda genom att kombinera flera uppdateringar till en mycket mindre mängd bakgrund disk skriver. Besparingarna kommer från två källor: multiplar uppdateringar till en enda metadatakomponent (t.ex. borttagning av en nyligen tillagd katalogpost) och flera oberoende uppdateringar till ett enda metadatablock (t.ex. flera poster som läggs till i ett katalogblock). Denna artikel beskriver mjuka uppdateringar, en implementationsteknik för låg kostnad sekvensering av finkorniga uppdateringar till write-back cache block. De mjuka uppdateringar mekanism spår beroenden bland uppdateringar till cachad (dvs. in-minne) kopior av metadata och upprätthåller dessa beroenden, via uppdatering sekvensering, som smutsiga metadata block skrivs tillbaka till icke-flyktig lagring. Eftersom de flesta metadata block innehåller många pekare, cykliska beroenden uppstår ofta när beroenden registreras endast på blocknivå. Därför, mjuka uppdateringar spår beroenden på en per-pekare basis och tillåter block att skrivas i valfri ordning. Alla fortfarande beroende uppdateringar i ett metadatablock rullas tillbaka innan blocket skrivs och rullas framåt efteråt. Därför elimineras beroendecykler som en fråga. Med mjuka uppdateringar, applikationer alltid
De mjuka uppdateringar mekanism spår beroenden bland ändringar i cachad (dvs, minnes) kopior av metadata och upprätthåller dessa beroenden, via uppdatering sekvensering, som smutsiga metadata block skrivs tillbaka till icke-flyktig lagring REF.
11,145,715
Soft updates: a solution to the metadata update problem in file systems
{'venue': 'TOCS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,051
Nyligen har det funnits ett stort intresse för att studera problemet med samhällssökning i sociala nätverk och informationsnätverk: med tanke på en eller flera frågenoder, hitta tätt sammankopplade samhällen som innehåller frågenoder. De flesta befintliga studier tar dock inte upp frågan om "fri ryttare", det vill säga noder långt borta från frågenoder och irrelevanta för dem ingår i den upptäckta gemenskapen. Vissa state-of-the-art modeller har försökt att ta itu med denna fråga, men inte bara är deras formulerade problem NP-hård, de tillåter inte några approximationer utan restriktiva antaganden, som kanske inte alltid håller i praktiken. I det här dokumentet, givet en oriktad graf G och en uppsättning frågenoder Q, studerar vi community search med hjälp av den k-truss-baserade gemenskapsmodellen. Vi formulerar vårt problem med att hitta en närmaste community (CTC), som att hitta en ansluten k-truss subgraph med den största k som innehåller Q, och har den minsta diametern bland sådana subgrafer. Vi bevisar att det här problemet är NP-hard. Dessutom är det svårt för NP att uppskatta problemet inom en faktor (2−ε), för alla ε > 0. Men vi utvecklar en girig algoritmisk ram, som först hittar en CTC som innehåller Q, och sedan iterativt tar bort de yttersta noderna från Q, från grafen. Metoden uppnår 2 approximation till den optimala lösningen. För att ytterligare förbättra effektiviteten använder vi ett kompakt truss index och utvecklar effektiva algoritmer för k-truss identifiering och underhåll när noder elimineras. Dessutom, med hjälp av bulk radering optimering och lokala prospekteringsstrategier, föreslår vi två mer effektiva algoritmer. Den ena handlar med en viss approximativ kvalitet för effektivitet medan den andra är en mycket effektiv heuristisk. Omfattande experiment på 6 verkliga nätverk visar effektiviteten och effektiviteten i vår samhällsmodell och sökalgoritmer.
I REF omformulerades gemenskapssökningen som ett NP-hårdt problem som identifierar en närmaste k-truss-community med minsta diameter och den största k som innehåller en uppsättning frågevertik.
2,905,457
Approximate Closest Community Search in Networks
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
14,052
Vi föreslår en ny ram för enhets- och händelseextrahering baserad på generativ kontraarial imitation lärande-en omvänd förstärkning inlärningsmetod med hjälp av ett generativt kontraarialt nätverk (GAN). Vi utgår från att fall och märkningar ger upphov till olika svårigheter och att vinsterna och påföljderna (vinsterna) förväntas variera. Vi använder discriminatorer för att uppskatta lämpliga belöningar beroende på skillnaden mellan de etiketter som gjorts av mark-sanningen (expert) och utsugaren (agent). Våra experiment visar att det föreslagna ramverket överträffar de senaste metoderna.
Zhang m.fl. I REF föreslås en ny ram för händelseextrahering baserad på en omvänt förstärkt inlärningsmetod med hjälp av ett generativt kontradiktoriskt nätverk (GAN) och delegeras till påverkan av två olika förutbildningsmetoder för ELMo och word2vek på den föreslagna modellen.
135,473,179
Joint Entity and Event Extraction with Generative Adversarial Imitation Learning
{'venue': 'Data Intelligence', 'journal': 'Data Intelligence', 'mag_field_of_study': ['Computer Science']}
14,053
Abstrakt. Migrering av äldre programvara till tjänstebaserade system är ett allt viktigare problemområde. Hittills har många strategier för migration inom SOA föreslagits inom både industrin och den akademiska världen. Det finns dock stora skillnader mellan de strategier för migration mellan statligt ägda företag som definieras i den akademiska världen och de som har utvecklats inom industrin. Denna skillnad pekar på en potentiell klyfta mellan teori och praktik. För att överbrygga denna klyfta genomförde vi en branschintervjuundersökning i sju ledande SOA-lösningsföretag. Resultaten har analyserats med avseende på migrationsverksamhet, tillgängliga kunskapstillgångar och migrationsprocessen. Dessutom har industriella tillvägagångssätt jämförts med akademiska, vilket innebär att man diskuterar skillnader och lovande inriktningar för industrirelevant forskning. Som ett resultat fann vi att alla företag i själva verket konvergerar till samma, en, gemensamma SOA migrationsstrategi. Detta tyder på att företagen med erfarenhet mognar mot ett liknande tillvägagångssätt när det gäller migration till sjöss.
En annan undersökning som gjorts av REF tillsammans med branschföreträdare som deltagare om SOA migration belyser den potentiella klyftan mellan teori och praktik av SOA migration.
9,979,089
A Survey of SOA Migration in Industry
{'venue': 'ICSOC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
14,054