src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Vi visar att räkna Euler turer i oriktade avgränsade trädbredd grafer är dragbar även i parallella - genom att bevisa en #SAC 1 på NC 2 P övre gräns. Detta är i skarp kontrast till #P-fullständighet av samma problem i allmänna grafer. Vårt huvudsakliga tekniska bidrag är att visa hur (ett exempel på) dynamisk programmering på avgränsade clique-bredd grafer kan utföras effektivt parallellt. Således visar vi att det sekventiella resultatet av Espelage, Gurski och Wanke [16] för effektiv computing Hamiltonian banor i avgränsade klickbredd grafer kan anpassas i den parallella inställningen för att räkna antalet Hamiltonian banor som i sin tur är ett verktyg för att räkna antalet Euler turer i avgränsade trädbredd grafer. Vår teknik ger också parallella algoritmer för att räkna längsta vägar och bipartite perfekta matchningar i begränsad-clique bredd grafer. Samtidigt etablera att räkna Euler turer i avgränsade trädbredd grafer kan beräknas av icke-uniform monotona aritmetiska kretsar av polynom grad (som kännetecknar #SAC 1 ) är relativt lätt, upprättande av en enhetlig #SAC 1 bundet behöver en noggrann användning av polynom interpolation. | NC 2 REF )......................................................................................................................... | 8,419,983 | Counting Euler Tours in Undirected Bounded Treewidth Graphs | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 8,142 |
Abstrakt. Att bygga ett datalager är en mycket utmanande fråga eftersom det jämfört med programvaruteknik är en ganska ung disciplin och ännu inte erbjuder väletablerade strategier och tekniker för utvecklingsprocessen. Nuvarande metoder för utveckling av datalager kan ingå i tre grundgrupper: datadriven, måldriven och användardriven. Alla tre utvecklingsstrategier har tillämpats på Process Warehouse som används som grund för ett processorienterat beslutsstödsystem, som syftar till att analysera och förbättra affärsprocesserna kontinuerligt. I detta dokument utvärderar vi alla tre utvecklingsmetoder med hjälp av olika bedömningskriterier. Syftet är att skapa en koppling mellan metoden och kravdomänen. | Alla tre metoder för data Warehouse utveckling beskrivs och jämförs med REF. | 6,923,197 | A Comparison of Data Warehouse Development Methodologies - Case Study of the Process Warehouse | {'venue': 'In Proc. DEXA', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,143 |
Abstract-The paradigmatic shift from a Web of manual interactions to a Web of programmatic interactions drived by Web services skapar aldrig tidigare skådade möjligheter för bildandet av samarbeten online Business-to-Business (B2B). Särskilt skapandet av mervärdestjänster genom sammansättningen av befintliga tjänster får betydande fart. Eftersom många tillgängliga webbtjänster erbjuder överlappande eller identisk funktionalitet, om än med olika tjänstekvalitet (QoS), måste ett val göras för att avgöra vilka tjänster som ska delta i en viss sammansatt tjänst. Detta dokument presenterar en middleware plattform som behandlar frågan om att välja webbtjänster i syfte att deras sammansättning på ett sätt som maximerar användarens tillfredsställelse uttryckt som allmännyttiga funktioner över QoS attribut, samtidigt som de uppfyller de begränsningar som fastställts av användaren och av strukturen i den sammansatta tjänsten. Två urvalsmetoder beskrivs och jämförs: den ena bygger på lokalt (task-nivå) urval av tjänster och den andra bygger på global fördelning av uppgifter till tjänster som använder heltalsprogrammering. | Zeng m.fl. REF föreslog en plattform för mellanprogram för val av webbtjänster för sammansättning. | 7,745,989 | QoS-aware middleware for Web services composition | {'venue': 'IEEE Transactions on Software Engineering', 'journal': 'IEEE Transactions on Software Engineering', 'mag_field_of_study': ['Computer Science']} | 8,144 |
Generera svar i en riktad stil är en användbar men utmanande uppgift, särskilt i avsaknad av parallella data. Med begränsade data tenderar befintliga metoder att generera svar som antingen är mindre stiliserade eller mindre kontextrelevanta. Vi föreslår STYLEFUSION, som överbryggar konversation modellering och nonparallell stil överföring genom att dela en strukturerad latent utrymme. Denna struktur gör det möjligt för systemet att generera stiliserade relevanta svar genom provtagning i grannskapet av konversationsmodell förutsägelse, och kontinuerligt kontrollera stilnivån. Vi demonstrerar denna metod med hjälp av dialoger från Reddit data och två uppsättningar meningar med distinkta stilar (arXiv och Sherlock Holmes romaner). Automatisk och mänsklig utvärdering visar att systemet, utan att göra avkall på lämpligheten, genererar svar av den riktade stilen och överträffar konkurrenskraftiga baslinjer. | REF använder ett strukturerat latent utrymme för att generera stiliserade dialogsvar. | 202,565,872 | Structuring Latent Spaces for Stylized Response Generation | {'venue': 'EMNLP 2019', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,145 |
OpenPTrack är en öppen källkodsprogramvara för multikamerakalibrering och personspårning i RGB-D-kameranätverk. Det gör det möjligt att spåra människor i stora volymer vid sensor bildhastighet och stöder för närvarande en heterogen uppsättning 3D-sensorer. I detta arbete beskriver vi dess användarvänliga kalibreringsförfarande, som består av enkla steg med realtidsfeedback som gör det möjligt att få korrekta resultat vid uppskattning av kamerans poser som sedan används för att spåra människor. På toppen av en kalibrering baserad på att flytta en checkerboard inom spårningsutrymmet och på en global optimering av kameror och checkerboards utgör, en ny procedur som justerar människor upptäckter som kommer från alla sensorer i ett x-y-tid utrymme används för att förfina kameraposer. Medan människor detektion utförs lokalt, i de maskiner som är anslutna till varje sensor, spårning utförs av en enda nod som tar hänsyn till detektioner från hela nätverket. Här beskriver vi hur en kaskad av algoritmer som arbetar med djuppunktsmoln och färg, infraröda och divergensbilder används för att utföra persondetektering från olika typer av sensorer och i alla inomhusljusförhållanden. Vi presenterar experiment som visar att en betydande förbättring kan uppnås med den föreslagna kalibrering förfining förfarande som utnyttjar människor upptäckter och vi jämför Kinect v1, Kinect v2 och Mesa SR4500 prestanda för människor spårning applikationer. OpenPTrack är baserat på Robotoperativsystemet och Point Cloud Library och har redan antagits i nätverk som består av upp till tio bilder för interaktiva tillämpningar inom konst, utbildning, kultur och människarobotinteraktion. | Mattero m.fl. REF genererade ett multimodalt sensorsystem för personspårning, och systemet är baserat på multikameranätverk som består av tre Kinect-sensorer och tre SR4500 TAF-kameror. | 5,860,216 | OpenPTrack: Open source multi-camera calibration and people tracking for RGB-D camera networks | {'venue': 'Robotics Auton. Syst.', 'journal': 'Robotics Auton. Syst.', 'mag_field_of_study': ['Computer Science']} | 8,146 |
Abstrakt. Ansiktsuttrycksigenkänning i det vilda är en mycket utmanande uppgift. Vi beskriver vårt arbete med statisk och kontinuerlig ansiktsuttrycksigenkänning i det vilda. Vi utvärderar igenkänningsresultaten av grå djupa funktioner och färg djupa funktioner, och utforska fusionen av multimodala textur funktioner. För den kontinuerliga ansiktsuttrycksigenkänningen designar vi två temporal-spatiala täta skal-invarianta funktioner transformerar (SIFT) funktioner och kombinerar multimodala funktioner för att känna igen uttryck från bildsekvenser. För den statiska ansiktsuttrycksigenkänningen baserad på videoramar, extraherar vi tät SIFT och några djupa konvolutionella neurala nätverk (CNN) funktioner, inklusive vår föreslagna CNN arkitektur. Vi tränar linjär stöd vektor maskin och partiella minst kvadratklassificerare för dessa typer av funktioner på den statiska ansiktsuttryck i wild (SFEW) och agerade ansiktsuttryck i wild (AFEW) dataset, och vi föreslår ett fusionsnätverk för att kombinera alla extraherade funktioner på beslutsnivå. Den slutliga prestationen vi uppnådde är 56,32% på SFEW-testuppsättningen och 50,67% på AFEW-valideringsuppsättningen, som är mycket bättre än utgångsvärdet på 35,96% och 36,08%. © Upphovsmännen. Publicerad av SPIE under en Creative Commons Atttribution 3.0 Unported License. Distribution eller reproduktion av detta verk helt eller delvis kräver fullständig tillskrivning av den ursprungliga publikationen, inklusive dess DOI. | En annan blandning av SIFT och djup konvolution som föreslås i REF. | 4,970,374 | Facial expression recognition in the wild based on multimodal texture features | {'venue': None, 'journal': 'Journal of Electronic Imaging', 'mag_field_of_study': ['Computer Science', 'Engineering']} | 8,147 |
Även om de flesta tillvägagångssätt för att automatiskt känna igen samband har använt klassificerare som använder handgjorda funktioner som härrör från komplexa naturligt språk bearbetning pipelines, i praktiken har deras prestanda bara varit något bättre än påse-of-word par klassificerare med endast lexical likhet. Det enda försöket hittills att bygga en end-to-end differentiable neurala nätverk för implementation misslyckades med att överträffa en sådan enkel likhet klassificerare. I det här dokumentet föreslår vi en neural modell som avläser två meningar för att bestämma påföljd med hjälp av långtidsminnesenheter. Vi utökar denna modell med en ord för ord neural uppmärksamhet mekanism som uppmuntrar resonemang över inslag av par av ord och fraser. Dessutom lägger vi fram en kvalitativ analys av de uppmärksamhetsvikter som denna modell ger upphov till, vilket visar på en sådan resonemangsförmåga. På ett stort behov dataset denna modell överträffar den tidigare bästa neurala modellen och en klassificerare med konstruerade funktioner med en betydande marginal. Det är det första generiska differentierbara systemet från end-to-end som uppnår den senaste noggrannheten på en textbaserad uppsättning uppgifter. | REF vidareutvecklar ytterligare en uppmärksamhetsmekanism ord för ord och får en högre noggrannhet med en komplexitetsordning på O(n2). | 2,135,897 | Reasoning about Entailment with Neural Attention | {'venue': 'ICLR 2016', 'journal': 'arXiv: Computation and Language', 'mag_field_of_study': ['Computer Science']} | 8,148 |
Abstract-This paper tar upp problemet med att köra robotsensorer för ett energibegränsat mobilt trådlöst nätverk för att effektivt övervaka och förutsäga rumsliga fenomen, under datalokaliseringsfel. I tidningen diskuteras först hur fel i mobila sensorplatser påverkar uppskattning och förutsägelse av de rumsliga fysiska processerna, med tanke på att rumsliga fält som ska övervakas modelleras av en Gaussian process. Därefter föreslås ett optimalt kriterium för att utforma optimala provtagningsvägar för de mobila robotsensorerna med tanke på osäkerheterna i lokaliseringen. Även om optimeringsproblemet är optimalt intractable, det kan lösas av en polynomial approximation algoritm, som har visat sig vara praktiskt genomförbart i en energi-konstruerad mobil sensor nätverk. Ännu viktigare är att lösningar på detta navigationsproblem är nästan optimala och garanteras av en lägre gräns inom 1‐(1/e) av det optimala. Den föreslagna metodens prestanda utvärderas på simulerade och verkliga datamängder, där inverkan av fel i sensorns placering på resultaten visas genom att jämföra resultaten med de som erhålls med hjälp av bullerfria dataplatser. | Ett optimalt kriterium för provtagningsvägarna för en typisk mobil robotsensor utformades av Nguyen et al. REF i sina forskningsarbeten, men deras arbete fokuserade på insamling av data på ljudfria dataplatser. | 44,207,616 | Adaptive Placement for Mobile Sensors in Spatial Prediction Under Locational Errors | {'venue': 'IEEE Sensors Journal', 'journal': 'IEEE Sensors Journal', 'mag_field_of_study': ['Engineering']} | 8,149 |
Vi beskriver en enkel neural språkmodell som endast bygger på tecken-nivå ingångar. Förutsägelser görs fortfarande på ordnivå. Vår modell använder ett konvolutionellt neuralt nätverk (CNN) och ett motorvägsnät över tecken, vars utgång ges till en lång korttidsminne (LSTM) återkommande neurala nätverk språkmodell (RNN-LM). På den engelska Penn Treebank är modellen i nivå med den befintliga toppmoderna modellen trots att den har 60 % färre parametrar. På språk med rik morfologi (arabiska, tjeckiska, franska, tyska, spanska, ryska) överträffar modellen word-level/morpheme-level LSTM-baslinjer, återigen med färre parametrar. Resultaten tyder på att teckenindata på många språk är tillräckliga för språkmodellering. Analys av ordrepresentationer från modellens karaktärssammansättning visar att modellen endast kan koda från tecken, både semantisk och ortografisk information. | Andra relaterade modeller tillämpar konvolutionella neurala nätverk direkt på tecken REF. | 686,481 | Character-Aware Neural Language Models | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 8,150 |
Vi föreslår ett nytt byteskriterium, nämligen jämnheten eller ojämnheten i fördelningen av variabla vikter, och använder detta kriterium för att kombinera intensifiering och diversifiering i det lokala sökandet efter SAT. Vi hänvisar till de sätt på vilka state-of-the-art lokala sökalgoritmer anpassaG 2 W SAT P och V W välja en variabel för att vända, som heuristic adaptG 2 W SAT P respektive heuristic V W, respektive. För att utvärdera effektiviteten av detta kriterium, tillämpar vi det för heuristisk anpassningG 2 W SAT P och heuristic V W, där den tidigare intensifierar sökningen bättre än den senare, och den senare diversifierar sökningen bättre än den förra. Den resulterande lokala sökalgoritmen, som växlar mellan heuristisk adaptG 2 W SAT P och heuristic V W i varje steg enligt detta kriterium, kallas Hybrid. Våra experimentella resultat visar att, på ett brett spektrum av SAT-fall som presenteras i denna uppsats, Hybrid ärver styrkan i adaptG 2 W SAT P och V W, och uppvisar generellt bättre prestanda än adaptG 2 W SAT P och V W. Dessutom Hybrid jämför gynnsamt med toppmoderna lokala sökalgoritm R+adaptN ovelty+ på dessa fall. Dessutom, utan någon manuell inställning parametrar, Hybrid löser var och en av dessa fall i en rimlig tid, medan adaptG 2 W SAT P, V W, och R+adaptN ovelty+ har svårigheter på några av dessa fall. | I REF presenteras ett nytt byteskriterium baserat på jämnheten eller ojämnheten i fördelningen av variabla vikter. | 4,910,512 | A Switching Criterion for Intensification and Diversification in Local Search for SAT | {'venue': 'J. Satisf. Boolean Model. Comput.', 'journal': 'J. Satisf. Boolean Model. Comput.', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 8,151 |
Generaliseringsfelet som är bundet till stödvektormaskinen (SVM) beror på förhållandet mellan radien och marginalen. Men konventionell SVM tar bara hänsyn till maximeringen av marginalen men bortser från minimeringen av radien, vilket begränsar dess prestanda när den tillämpas på gemensamt lärande av funktionsomvandling och SVM klassificering. Även om flera metoder har föreslagits för att integrera radie och marginalinformation, de flesta av dem antingen kräver formen av omvandlingsmatrisen för att vara diagonal, eller är icke konvex och beräkning dyrt. I detta dokument föreslår vi en ny approximation för radien av minsta omslutningskula i funktionsutrymme, och sedan föreslå en konvex radie-marginal-baserad SVM-modell för gemensamt lärande av funktionsomvandling och SVM klassifier, dvs F-SVM. En generaliserad blockkoordinatmetoden används för att lösa F-SVM-modellen, där funktionsomvandlingen uppdateras via lutningsnedstigningen och klassificeraren uppdateras genom att använda den befintliga SVM-lösaren. Genom att integrera med kärnhuvudkomponentanalys, utvidgas F-SVM ytterligare för gemensamt lärande av icke-linjär transformation och klassificeringen. F-SVM kan också integreras med djupa konvolutionsnätverk för att förbättra prestandan i bildklassificeringen. Experiment på datamängderna UCI, LFW, MNIST, CIFAR-10, CIFAR-100 och Caltech101 visar F-SVM:s effektivitet. Index Terms-Convex avkoppling, max marginal, radie-marginal fel bunden, stöd vektor maskin (SVM). | Till exempel, eftersom generalisering fel bundet beror på radie och marginal i SVM algoritm, Wu et al. REF föreslog en konvex radie-marginal-baserad SVM-modell för gemensamt lärande av funktionsomvandling och SVM-klassificeringen, och KPCA-algoritmen användes för att utvidga algoritmen till gemensamt lärande av icke-linjär transformation och SVM-klassificeringen. | 18,362,502 | F-SVM: Combination of Feature Transformation and SVM Learning via Convex Relaxation | {'venue': 'IEEE Transactions on Neural Networks and Learning Systems', 'journal': 'IEEE Transactions on Neural Networks and Learning Systems', 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']} | 8,152 |
Frihandsskissbaserad bildsökning (SBIR) är en specifik hämtningsuppgift för korsvyer, där frågor är abstrakta och tvetydiga skisser medan hämtningsdatabasen bildas med naturliga bilder. Arbetet inom detta område fokuserar främst på att extrahera representativa och delade funktioner för skisser och naturliga bilder. Dessa kan dock varken klara av den geometriska förvrängningen mellan skisser och bilder eller vara möjliga för storskaliga SBIR på grund av den tunga kontinuerliga avståndsberäkningen. I detta dokument påskyndar vi SBIR genom att införa en ny binär kodningsmetod, kallad Deep Sketch Hashing (DSH), där en semi-heterogen djup arkitektur föreslås och införlivas i en end-to-end binär kodning ram. Specifikt, tre konvolutionella neurala nätverk används för att koda fri-hand skisser, naturliga bilder och, särskilt, de extra skiss-tokens som antas som broar för att mildra skiss-bild geometrisk förvrängning. De lärda DSH-koderna kan effektivt fånga de korsvisa likheterna samt de inneboende semantiska korrelationerna mellan olika kategorier. Såvitt vi vet är DSH det första hasharbetet speciellt utformat för kategorinivå SBIR med en end-to-end djup arkitektur. Den föreslagna DSH utvärderas utförligt på två storskaliga datauppsättningar av TU-Berlin Extension och Sketchy, och experimenten visar konsekvent DSH:s överlägsna S-BIR-accuracies över flera toppmoderna metoder, samtidigt som man uppnår betydligt minskad hämtningstid och minnesavtryck. | Liu et.al REF föreslår en semi-heterogen djup arkitektur för att extrahera binära koder från skisser och bilder som kan tränas i ett end-to-end-mode för grovkornig SBIR-uppgift. | 4,285,461 | Deep Sketch Hashing: Fast Free-Hand Sketch-Based Image Retrieval | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 8,153 |
Vi presenterar DeepWalk, en ny metod för att lära latenta representationer av hörn i ett nätverk. Dessa latenta representationer kodar sociala relationer i ett ständigt vektorutrymme, som lätt utnyttjas av statistiska modeller. Deep-Walk generaliserar de senaste framstegen inom språkmodellering och oövervakad funktionsinlärning (eller djupinlärning) från sekvenser av ord till grafer. DeepWalk använder lokal information som erhållits från trunkerade slumpmässiga promenader för att lära latenta representationer genom att behandla promenader som motsvarande meningar. Vi demonstrerar Deep-Walks latenta representationer på flera multi-label nätverksklassificeringsuppgifter för sociala nätverk som BlogCatalog, Flickr och YouTube. Våra resultat visar att DeepWalk överträffar utmanande baslinjer som tillåts en global syn på nätverket, särskilt i närvaro av saknade information. DeepWalks representationer kan ge F1 poäng upp till 10 % högre än konkurrerande metoder när märkta data är glesa. I vissa experiment kan DeepWalks representationer överträffa alla baslinjemetoder och samtidigt använda 60 % mindre träningsdata. DeepWalk är också skalbar. Det är en online-lärande algoritm som bygger användbara inkrementella resultat, och är trivialt parallellizable. Dessa egenskaper gör den lämplig för en bred klass av verkliga applikationer såsom nätverk klassificering, och anomali upptäckt. | Det senaste arbetet med Deepwalk REF använder trunkerade slumpmässiga promenader för att lära sig latenta representationer genom att koda sociala relationer i ett kontinuerligt vektorutrymme, som lätt kan utnyttjas av statistiska modeller. | 3,051,291 | DeepWalk: online learning of social representations | {'venue': "KDD '14", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,154 |
Obesudlade ord representationer är mycket användbara i NLP uppgifter både som ingångar till lärande algoritmer och som extra ordfunktioner i NLP-system. De flesta av dessa modeller är dock uppbyggda med endast lokal kontext och en representation per ord. Detta är problematiskt eftersom ord ofta är polysemösa och globala sammanhang också kan ge användbar information för att lära ord betydelser. Vi presenterar en ny neural nätverk arkitektur som 1) lär sig ord inbäddningar som bättre fånga semantik av ord genom att införliva både lokala och globala dokument sammanhang, och 2) står för homonymi och polysemi genom att lära sig flera inbäddningar per ord. Vi introducerar en ny datauppsättning med mänskliga bedömningar av parord i ett tydligt sammanhang, och utvärderar vår modell på den, vilket visar att vår modell överträffar konkurrenskraftiga baslinjer och andra neurala språkmodeller. | REF bestämmer känslan av ett ord genom att klunga samman sammanhangen och sedan tillämpa det på neural språkmodell med globala sammanhang. | 372,093 | Improving Word Representations via Global Context and Multiple Word Prototypes | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,155 |
Abstract-Medan fördelarna med kooperativ mångfald har studerats väl i litteraturen, har kooperativ MAC protokoll design också väckt stor uppmärksamhet nyligen. I protokollet Singlerelay Cooperative Automatic Repeat ReQuest (C-ARQ) väljs den bästa relänoden på ett distribuerat sätt genom reläer som använder olika reservtid före paketåtersändning. Detta system för urval av reläer fungerar dock inte effektivt i ett tätt nätscenario, på grund av möjlig hög kollisionsannolikhet bland olika konkurrerande reläer. I detta dokument föreslår vi ett optimerat system för reläurval för att maximera systemets energieffektivitet genom att minska kollisionssannolikheten. Energieffektivitetsprestandan genom det föreslagna optimala systemet för urval av reläer verifieras genom simuleringar. | Han och Li REF föreslår protokollet för automatisk reprisförfrågan (CARQ), i vilket relänoden väljs ut på ett distribuerat sätt. Reläerna använder olika reservtid före återsändning av paket. | 16,772,626 | An optimal energy efficient cooperative retransmission MAC scheme in wireless networks | {'venue': '2011 2nd International Conference on Wireless Communication, Vehicular Technology, Information Theory and Aerospace & Electronic Systems Technology (Wireless VITAE)', 'journal': '2011 2nd International Conference on Wireless Communication, Vehicular Technology, Information Theory and Aerospace & Electronic Systems Technology (Wireless VITAE)', 'mag_field_of_study': ['Computer Science']} | 8,156 |
Tillväxten av digitala kliniska data har väckt frågor om hur man bäst kan utnyttja dessa data för att hjälpa världen av hälso- och sjukvård. Lovande tillämpningsområden inkluderar information Retrieval och Question-Ansvarande system. Sådana system kräver en fördjupad förståelse av de texter som behandlas. En aspekt av denna förståelse är att veta om ett medicinskt tillstånd som beskrivs i ett patientregister är nyligen, eller om det inträffade i det förflutna. Förutom detta diskuterar patientjournaler ofta andra individer, till exempel familjemedlemmar. Detta ger en andra problematik som avgör om patienten upplever ett medicinskt tillstånd som beskrivs i rapporten eller någon annan individ. I denna uppsats undersöker vi lämpligheten av ett maskininlärningssystem (ML) för att lösa dessa uppgifter på en tidigare outforskad samling av patienthistorik och fysiska undersökningsrapporter. Våra resultat visar att vår nya Score-baserade funktionsstrategi överträffar de lingvistiska och kontextuella standardegenskaper som beskrivs i den relaterade litteraturen. Specifikt, nästan perfekt prestanda uppnås när det gäller att lösa om en patient upplevde ett tillstånd. Medan för uppgiften att fastställa när en patient upplevde ett tillstånd, vårt ML-system avsevärt överträffar ConText-systemet (87% mot 69% f-score, respektive). | REF använde maskininlärning för att avgöra om en patient upplevde ett visst medicinskt tillstånd. | 1,446,080 | Analyzing Patient Records to Establish If and When a Patient Suffered from a Medical Condition | {'venue': 'BioNLP: Proceedings of the 2012 Workshop on Biomedical Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,157 |
Abstrakt. Prestandan hos utseendebaserade ansiktsigenkänningsalgoritmer påverkas negativt av belysningsvariationer. Illumination normalisering kan avsevärt förbättra deras prestanda. Vi presenterar en ny algoritm för belysning normalisering av färgansiktsbilder. Ansikte Albedo uppskattas från en enda färg ansikte bild och dess medregistrerade 3D-bild (pointcloud). Till skillnad från befintliga metoder tar vår algoritm hänsyn till både Lambertianska och spekulära reflektioner samt bifogade och gjutna skuggor. Dessutom är vår algoritm invariant att ansiktet pose och uttryck och kan effektivt hantera fallet med flera utökade ljuskällor. Metoden bygger på Phongs belysningsmodell. Parametrarna i Phongs modell och antalet, riktningen och intensiteten hos de dominerande ljuskällorna beräknas automatiskt. Spekulariteter i ansiktsbilden används för att uppskatta riktningen för de dominerande ljuskällorna. Därefter är 3D-ansiktsmodellen ray-castad för att hitta skuggorna från varje ljuskälla. Ljuskällornas intensitet och ljusmodellens parametrar uppskattas genom att Phongs modell monteras på ansiktets huddata. Experiment utfördes på utmanande FRGC v2.0 data och tillfredsställande resultat uppnåddes (det genomsnittliga monteringsfelet var 6,3% av det maximala färgvärdet). | Faisal R. Al-Osaimi et al REF ansåg att eftersom prestandan för utseendebaserade ansiktsigenkänningsalgoritmer påverkas negativt av ljusvariationer. | 11,388,592 | Illumination normalization for color face images | {'venue': 'In International symposium on visual computing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,158 |
Nätverkstrafikmodellering ser i allmänhet trafiken som en superposition av flöden som skapar en tidsserie av volymräkningar (t.ex. för bytes eller paket). Vad som utelämnas från denna bild av trafiken är innehållet i paket. Förpackningens innehåll (t.ex. Rubrikfält) innehåller betydande information som kan vara användbar i många tillämpningar såsom förändring och anomali upptäckt, och router prestandautvärdering. Syftet med detta dokument är att uppmärksamma problemet med att modellera trafiken med avseende på paketens innehåll. I detta avseende identifierar vi ett nytt fenomen: långsiktig ömsesidig information (LRMI), vilket innebär att beroendet av innehållet i ett par paket förfaller som en effekt av eftersläpningen mellan dem. Vi visar att även om LRMI är svårt att mäta, och svårt att modellera med hjälp av de matematiska verktyg som finns, dess effekter är lätta att identifiera i verklig trafik, och det kan ha en betydande inverkan på ett antal tillämpningar. Vi tror att arbetet med att modellera detta fenomen kommer att öppna dörrar för nya typer av trafikmodeller, och nya framsteg i ett antal tillämpningar. | Nahur m.fl. REF finner fenomenet med ömsesidig information på lång sikt i FS. | 14,909,923 | Long range mutual information | {'venue': 'PERV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,159 |
Abstrakt. Att matcha fotgängare över flera kameravyer som kallas återidentifiering av människor (återidentifiering) är ett utmanande problem när det gäller visuell övervakning. I de befintliga verken, som är inriktade på utvinning av särdrag, bildas representationer lokalt och oberoende av andra regioner. Vi presenterar en ny Siamese Long Short-Term Memory (LSTM) arkitektur som kan bearbeta bildregioner sekventiellt och förbättra discriminativ förmåga lokala funktioner representation genom att utnyttja kontextuell information. Återkopplingsanslutningarna och den interna gatingmekanismen hos LSTM-cellerna gör det möjligt för vår modell att memorera de rumsliga beroendena och selektivt sprida relevant kontextuell information via nätverket. Vi uppvisar förbättrad prestanda jämfört med basalgoritmen utan LSTM-enheter och lovande resultat jämfört med toppmoderna metoder på Market-1501, CUHK03 och VIPeR-datauppsättningar. Visualisering av den interna mekanismen av LSTM-celler visar meningsfulla mönster kan läras genom vår metod. | I senare verk, Varior et al. REF införlivar långsiktiga korttidsminnesmoduler (LSTM) i ett siamesnätverk. | 16,756,781 | A Siamese Long Short-Term Memory Architecture for Human Re-Identification | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 8,160 |
Mekaniseringen av avtal mellan företag kräver en tydlig arkitektur och en tydlig och entydig grundmodell för hur tillstånd och skyldigheter hanteras inom organisationer. Politiken måste uttryckas i termer av den grundläggande modellen, och den tillgängliga expressiva kraften kommer delvis att bero på förmågan att utforma politiska åtgärder som härrör från olika källor. De modeller som används måste återspegla de berörda organisationernas struktur och hur organisationernas beteende begränsas av bredare gemensamma regler. I detta dokument behandlas ett system för kontraktsövervakning som är avsett att tillhandahålla automatiserad kontroll av avtal mellan företag, som innehåller en lämplig modell och förklarar hur det kan användas för att vägleda representation och kontroll av kontrakt i ett system för prototypövervakning. | I REF föreslås ett system för kontraktsövervakning som syftar till automatisk kontroll av avtal mellan företag. | 3,927,136 | Using policies in the checking of business to business contracts | {'venue': 'Proceedings POLICY 2003. IEEE 4th International Workshop on Policies for Distributed Systems and Networks', 'journal': 'Proceedings POLICY 2003. IEEE 4th International Workshop on Policies for Distributed Systems and Networks', 'mag_field_of_study': ['Computer Science']} | 8,161 |
Boosting är en maskininlärningsalgoritm som inte är välkänd inom beräkningslingvistik. Vi applicerar den på del-av-tal taggning och prepositionell fras bilaga. Prestanda är mycket uppmuntrande. Vi visar också hur man kan förbättra datakvaliteten genom att öka för att identifiera annoteringsfel. | REF tillämpade booster till en del av talmärkning. | 4,480 | Boosting Applied To Tagging And PP Attachment | {'venue': 'Joint SIGDAT Conference On Empirical Methods In Natural Language Processing And Very Large Corpora', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,162 |
Ordböcker och meningstabeller är grunden för moderna statistiska maskinöversättningssystem. Detta dokument utvecklar en metod som kan automatisera processen att generera och utöka ordböcker och meningstabeller. Vår metod kan översätta saknade ord och fraser genom att lära sig språkstrukturer baserade på stora enspråkiga data och kartläggning mellan språk från små tvåspråkiga data. Den använder distribuerad återgivning av ord och lär sig en linjär kartläggning mellan vektorrymder av språk. Trots dess enkelhet är vår metod förvånansvärt effektiv: vi kan uppnå nästan 90% precision@5 för översättning av ord mellan engelska och spanska. Denna metod gör lite antaganden om språken, så det kan användas för att utöka och förfina ordböcker och översättningstabeller för alla språkpar. | REF ) utvecklat en metod som kan automatisera processen för att generera och utöka ordböcker och meningstabeller. | 1,966,640 | Exploiting Similarities among Languages for Machine Translation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 8,163 |
Abstrakt. De flesta befintliga bild denoiserande metoder antar de korrumperade buller att vara additiv vit Gaussian buller (AWGN). Men det realistiska ljudet i verkliga bullriga bilder är mycket mer komplext än AWGN, och är svårt att modelleras av enkla analytiska distributioner. Som ett resultat, många state-of-the-art denoising metoder i litteraturen blir mycket mindre effektiv när tillämpas på verkliga bullriga bilder fångas av CCD eller CMOS-kameror. I detta dokument utvecklar vi ett trilateralt vägt sparse-system (TWSC) för robust bilddenoisering i verkligheten. Speciellt introducerar vi tre viktmatriser i data och legalisering termer i den glesa kodning ram för att karakterisera statistiken över realistiska buller och bild tidigare. TWSC kan omformuleras som ett linjärt jämställdhetsbetonat problem och kan lösas genom multiplikatormetoden med alternerande riktning. Förekomsten och unikheten av lösningen och konvergensen av den föreslagna algoritmen analyseras. Omfattande experiment visar att det föreslagna TWSC-systemet överträffar toppmoderna denomineringsmetoder för att avlägsna realistiskt buller. | Till exempel Xu et al. Föreslaget tresidigt vägt glest kodande (TWSC) Ref-system för robust bilddenoisering i verkligheten. | 49,665,770 | A Trilateral Weighted Sparse Coding Scheme for Real-World Image Denoising | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 8,164 |
Sammanfattning av denna webbsida: Att förbättra jordbrukets produktivitet är nödvändigt för att öka jordbrukets lönsamhet och möta den snabbt växande efterfrågan på livsmedel som drivs av en snabb befolkningstillväxt i hela världen. Jordbrukets produktivitet kan ökas genom förståelse och prognostisering av grödans prestanda under en rad olika miljöförhållanden. Grödans rekommendation bygger för närvarande på uppgifter som samlats in i fältbaserade jordbruksstudier som fångar upp grödans prestanda under olika förhållanden (t.ex. markkvalitet och miljöförhållanden). Insamlingen av uppgifter om grödans prestanda är dock för närvarande långsam, eftersom sådana odlingsstudier ofta utförs på avlägsna och distribuerade platser, och sådana uppgifter samlas vanligtvis in manuellt. Dessutom är kvaliteten på manuellt insamlade uppgifter om grödans prestanda mycket låg, eftersom den inte tar hänsyn till tidigare förhållanden som inte har observerats av de mänskliga operatörerna men är nödvändig för att filtrera bort insamlade data som kommer att leda till ogiltiga slutsatser (t.ex. solstrålning avläsningar på eftermiddagen efter ens ett kort regn eller mulen på morgonen är ogiltiga, och bör inte användas för att bedöma grödans prestanda). Nya Internet of Things (IoT)-tekniker, såsom IoT-enheter (t.ex. trådlösa sensornätverk, nätverksanslutna väderstationer, kameror och smarta telefoner) kan användas för att samla stora mängder miljö- och skördedata, allt från tidsseriedata från sensorer, till rumsliga data från kameror, till mänskliga observationer som samlas in och registreras via mobila smarta telefonapplikationer. Sådana uppgifter kan sedan analyseras för att filtrera bort ogiltiga uppgifter och beräkna individanpassade odlingsrekommendationer för varje enskild gård. I detta dokument presenterar vi utformningen av SmartFarmNet, en IoT-baserad plattform som kan automatisera insamlingen av miljö-, jord-, gödslings- och bevattningsdata; automatiskt korrelera sådana data och filtrera ut ogiltiga data ur perspektivet för att bedöma grödans prestanda; och beräkna skördeprognoser och individanpassade grödor rekommendationer för varje enskild gård. SmartFarmNet kan integrera praktiskt taget alla IoT-enheter, inklusive kommersiellt tillgängliga sensorer, kameror, väderstationer, etc., och lagra sina data i molnet för prestandaanalys och rekommendationer. En utvärdering av SmartFarmNet-plattformen och våra erfarenheter och lärdomar från utvecklingen av detta system avslutar dokumentet. SmartFarmNet är det första och för närvarande största systemet i världen (när det gäller antalet sensorer bifogade, grödor bedömda, och användare det stöder) som ger gröda prestanda analys och rekommendationer. | Författarna till REF presenterar ett SmartFarmNet-ramverk, baserat på IoT-plattformen som kan automatisera insamlingen av miljö-, gödningsmedels-, jord- och bevattningsdata, automatiskt korrelera data och utvärdera produktprestanda, och beräkna produktuppskattningar och föreslå specifika produkter för varje enskild gård. | 14,031,698 | Internet of Things Platform for Smart Farming: Experiences and Lessons Learnt | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 8,165 |
Genomiska datauppsättningar är ofta förknippade med känsliga fenotyper. Därför är läckan av medlemsinformation en stor integritetsskyddsrisk. Genomiska beacons syftar till att tillhandahålla ett säkert, enkelt att implementera och standardiserat gränssnitt för datadelning genom att endast tillåta ja/nej frågor om förekomsten av specifika alleler i datasetet. Beacons ansågs tidigare vara säkra mot återidentifieringsattacker och visade sig vara sårbara trots sin strikta politik. Nya studier har visat att det är möjligt att avgöra om offret finns i datasetet, genom att gång på gång fråga fyren för sin enda nukleotida polymorfismer (SNPs). I detta arbete föreslår vi en ny omidentifieringsattack och visar att integritetsrisken är allvarligare än man tidigare trott. Med hjälp av den föreslagna attacken, även om offret systematiskt döljer informativa SNP:er (dvs. SNP:er med mycket liten allelfrekvens -MAF-), är det möjligt att härleda allelerna på platser av intresse samt fyren frågeresultat med mycket stort förtroende. Vår metod bygger på att allelerna på olika platser inte nödvändigtvis är oberoende. Vi använder kopplingen disequilibrium och en högorder Markov kedjebaserad algoritm för inferensen. Vi visar att i en simulerad fyr med 65 individer från CEU-populationen kan vi dra slutsatsen att personer med 95% förtroende med bara 5 frågor, även när SNPs med MAF mindre än 0,05 är dolda. Detta innebär att vi behöver mindre än 0,5 procent av det antal frågor som befintliga verk kräver, för att fastställa beacon-medlemskap på samma villkor. Vi visar vidare att motåtgärder som att dölja vissa delar av genomet eller ställa en frågebudget för användaren skulle misslyckas med att skydda deltagarnas integritet enligt vår motståndare modell. 1 2 och AstraZenecas projekt om sekvensering av två miljoner individer [9]. Även om sådana miljoner stora genomiska dataset är ovärderliga resurser för forskning, är delning av data en stor utmaning på grund av återidentifieringsrisk. Flera studier under det senaste årtiondet har visat att avlägsnande av personliga identifierare från genomiska data inte är tillräckligt och att individer kan identifieras på nytt med hjälp av allelfrekvensinformation [6, 12, 8, 15, 3]. Genomic data-sharing beacons (kallas beacons från och med nu) är de gateways som låter användare och dataägare utbyta information utan -i teorin - att avslöja någon personlig information. En användare som vill ansöka om tillgång till datasetet kan lära sig om individer med specifika alleler av intresse finns i beacon via ett online-gränssnitt. Mer specifikt, användaren lämnar in en fråga, frågar om ett genom finns i fyren med en viss nukleotid på en viss position, och fyren svarar "ja" eller "nej". Beacons är lätta att installera system som ger mycket begränsad tillgång till lagrade data. Beaconprojektet är ett initiativ av Global Alliance for Genomics and Health (GA4GH) som skapar policyer för att säkerställa standardiserad och säker delning av genomiska data. Beacons ansågs säkra eftersom allelfrekvenser inte är inblandade i frågeresultatet och de binära svaren för allelens närvaro verkar långt ifrån vara informativa för en attack. Under 2015 införde Shringarpure och Bustamante dock ett sannolikhetstest (LRT) som förutspår om en person befinner sig i fyren eller inte, genom att gång på gång fråga efter offrets SNP (dubbade SB-attacken) [13]. Metoden använder inte allelfrekvenserna och kan kompensera sekvensfel. De visar att de kan identifiera en individ på nytt i en fyr med 65 europeiska individer från 1000 Genomes Project [14] med 250 frågor (med 95 % förtroende). I sin plan antas både de frågor som ställs och svaren från fyren vara oberoende, och därför testas hypotesen utifrån ett binomialtest. Mycket nyligen, verk av Raisaro et al. visade att om angriparen har tillgång till de MAF av befolkningen, s / han kan sortera offrets SNPs och fråga SNPs från den med den lägsta MAF (dubbed den optimala attacken) [10]. Till skillnad från SB attack, frågor är inte slumpmässiga i detta fall. Eftersom låga MAF SNP är mer informativa, Raisaro et al. visar att färre frågor behövs för att återidentifiera en individ. Dessutom har Raisaro m.fl. Föreslagna motåtgärder mot återidentifieringsattacker, t.ex. tillägg av buller till signalsignalens resultat och tilldelning av en budget till beaconmedlemmar som begränsar antalet informativa frågor som kan ställas till varje medlem. 1 Linkage disequilibrium (LD) är ett mått på SNP korrelationer som visar vilka SNP-positioner som sannolikt kommer att ärvas tillsammans. | Den ursprungliga attacken har förbättrats genom REF i fråga om antal frågor som behövs för att avgöra närvaron av en individ i en fyr. | 196,682,028 | Re-Identification of Individuals in Genomic Data-Sharing Beacons via Allele Inference | {'venue': None, 'journal': 'bioRxiv', 'mag_field_of_study': ['Biology']} | 8,166 |
I detta arbete presenterar vi en ny intuitiv, end-to-end-strategi för detektering av temporala åtgärder i otrimmade videor. Vi introducerar vår nya arkitektur för Single-Stream Temporal Action Detection (SS-TAD), som effektivt integrerar gemensam åtgärdsdetektering med dess semantiska deluppdrag i en enda enhetlig ram. Vi utvecklar en metod för att träna vår djupa återkommande arkitektur baserad på att upprätthålla semantiska begränsningar på mellanliggande moduler som gradvis avslappnas när lärandet fortskrider. Vi finner att ett sådant dynamiskt inlärningsprogram gör det möjligt för SS-TAD att uppnå högre total detektionsprestanda, med färre träningsperioder. Genom single-pass nätverk är mycket effektiv och kan arbeta på 701 ramar per sekund, samtidigt överträffar de senaste metoderna för temporal åtgärd upptäckt på THUMOS'14. | Buch m.fl. REF inför semantiska begränsningar för läroplansutbildning i end-to-end temporal action lokalisering. | 4,021,276 | End-to-End, Single-Stream Temporal Action Detection in Untrimmed Videos | {'venue': 'BMVC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,167 |
Abstract-Clock skev definieras som avvikelsehastigheten för en enhet klocka från den verkliga tiden. Frekvensen av en apparats klocka beror faktiskt på dess miljö, såsom temperatur och luftfuktighet, samt typ av kristall. De viktigaste bidragen i detta dokument är tvåfaldiga. För det första validerar vi experimentellt att MICAz och TelosB sensormotes har olika och unika urskalv. Dessutom kan klockan skew av en nod enkelt övervakas, även via en multi-hop Wireless Sensor Network (WSN). Vi hävdar att denna funktion kan användas för identifiering av noderna, upptäckt av maskhål och Sybil attacker. För det andra, visar vi att klockan skev av en sensor nod varierar med temperaturen. Vi förklarar hur denna egenskap kan användas för att upptäcka skadliga och mal-fungerande noder och för att geo-lokalisera dem. | I REF, författarna validerade att klockan skew av sensor nod var unik och känslig för temperatur och de använde denna information för att upptäcka skadliga och mal-fungerande noder. | 2,290,141 | Toward clock skew based wireless sensor node services | {'venue': '2010 The 5th Annual ICST Wireless Internet Conference (WICON)', 'journal': '2010 The 5th Annual ICST Wireless Internet Conference (WICON)', 'mag_field_of_study': ['Computer Science']} | 8,168 |
Abstrakt. Bit-splitting bryter problemet med att övervaka trafik nyttolaster för att upptäcka förekomsten av misstänkta mönster i flera parallella komponenter, som var och en söker efter en viss bit mönster. Vi analyserar bit-splitting som tillämpas på Aho-Corasick stil sträng matchning. Problemet kan ses som en återhämtning av en speciell klass av vanliga språk över produkt alfabet från en samling av homomorfa bilder. Vi använder denna karakterisering för att bevisa riktighet och för att ge utrymme gränser. I synnerhet visar vi att NFA till DFA omvandling av Aho-Corasick maskin som används för bit-splitting har endast linjära overhead. | REF presenterar en teoretisk automatiserad analys av ett speciellt bit-split-språk. | 16,803,973 | Automata-Theoretic Analysis of Bit-Split Languages for Packet Scanning | {'venue': 'CIAA', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 8,169 |
Graph convolutional network (GCN) har framgångsrikt tillämpats på många grafbaserade applikationer, men utbildning av ett storskaligt GCN är fortfarande en utmaning. Nuvarande SGD-baserade algoritmer lider av antingen en hög beräkningskostnad som exponentiellt växer med antal GCN-lager, eller ett stort utrymmeskrav för att hålla hela grafen och inbäddningen av varje nod i minnet. I detta dokument föreslår vi Cluster-GCN, en ny GCN-algoritm som lämpar sig för SGD-baserad utbildning genom att utnyttja grafklusterstrukturen. Cluster-GCN fungerar som följande: vid varje steg, det prover ett block av noder som associerar med en tät subgraph identifieras av en graf kluster algoritm, och begränsar grannskapet sökning inom denna subgraf. Denna enkla men effektiva strategi leder till avsevärt förbättrad minnes- och beräkningseffektivitet samtidigt som den kan uppnå jämförbar testnoggrannhet med tidigare algoritmer. För att testa skalbarheten hos vår algoritm skapar vi en ny Amazon2M data med 2 miljoner noder och 61 miljoner kanter som är mer än 5 gånger större än den tidigare största allmänt tillgängliga datauppsättningen (Reddit). För att träna en 3-lagers GCN på dessa data är Cluster-GCN snabbare än den tidigare toppmoderna VR-GCN (1523 sekunder jämfört med 1961 sekunder) och använder mycket mindre minne (2,2GB jämfört med 11,2GB). Dessutom, för utbildning 4 lager GCN på denna data, kan vår algoritm avsluta på cirka 36 minuter medan alla befintliga GCN träningsalgoritmer misslyckas med att träna på grund av den out-of-minne problemet. Dessutom kan Cluster-GCN oss att träna mycket djupare GCN utan mycket tid och minne overhead, vilket leder till förbättrad förutsägelse noggrannhet-med hjälp av en 5-lagers Cluster-GCN, vi uppnå state-of-the-art test F1 poäng 99.36 på PPI dataset, medan det tidigare bästa resultatet var 98.71 genom [16]. | Nodberoende REF tvingar GNN att tränas på hela grafen, vilket leder till en långsam traneringsprocess. | 159,042,192 | Cluster-GCN: An Efficient Algorithm for Training Deep and Large Graph Convolutional Networks | {'venue': None, 'journal': 'Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 8,170 |
Abstrakt. Statistiska inlärningsalgoritmer är ofta beroende av det euklideiska avståndet. I praktiken kan icke-Euklidiska eller icke-metriska olikhetsåtgärder uppstå när konturer, spektra eller former jämförs genom att redigera avstånd eller som en följd av robust objektmatchning [1, 2]. Det är en öppen fråga om sådana åtgärder är fördelaktiga för statistisk inlärning eller om de bör begränsas till att lyda de metriska axiomen. K-nearest granne (NN) regel tillämpas i stor utsträckning på allmänna olikhetsdata som den mest naturliga metoden. Det finns alternativa metoder som inbäddar sådana uppgifter i lämpliga representationsutrymmen där statistiska klassificeringar konstrueras [3]. I detta dokument undersöker vi förhållandet mellan icke-Euklidiska aspekter av olika data och klassificeringsprestandan för den direkta NN-regeln och vissa klassificerare som är utbildade i representationsutrymmen. Detta utvärderas på en parameteriserad familj av redigera avstånd, där parametervärden styr styrkan i nonEuclidean beteende. Vår slutsats är att den diskriminerande effekten av denna åtgärd ökar med ökande icke-Euklidiska och icke-metriska aspekter tills en viss optimal uppnås. Slutsatsen är att statistiska klassificeringar fungerar väl och att de optimala värdena för parametrarna kännetecknar ett icke-Euklidiskt och något icke-metriskt mått. | Även om de flesta statistiska mönsterigenkänning tekniker bygger på Euclidean avstånd, kräver man ofta icke-Euclidean och icke-metrisk likhet särskilt när konturer, spektra eller former jämförs, för robusta objekt som matchar REF. | 2,884,114 | Non-Euclidean or non-metric measures can be informative | {'venue': 'SSPR/SPR', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,171 |
ABSTRACT Spurred by service computing and cloud computing, ett ökande antal tjänster växer fram på Internet. Till följd av detta blir tjänsterelevanta uppgifter för stora för att kunna behandlas på ett effektivt sätt genom traditionella metoder. Mot bakgrund av denna utmaning föreslås i detta dokument en klusterbaserad samverkansfiltreringsmetod som syftar till att rekrytera liknande tjänster i samma kluster för att tillsammans rekommendera tjänster. Tekniskt sett sker detta tillvägagångssätt i två steg. I det första steget är de tillgängliga tjänsterna uppdelade i småskaliga kluster, i logik, för vidare bearbetning. I det andra steget införs en samverkande filtreringsalgoritm på en av klusteren. Eftersom antalet tjänster i ett kluster är mycket mindre än det totala antalet tjänster som finns tillgängliga på webben, förväntas det minska den online-exekveringstiden för samarbetsfiltrering. Äntligen utförs flera experiment för att verifiera tillgängligheten av metoden, på en verklig datamängd på 6225 mashup tjänster som samlats in från ProgrammableWeb. INDEX TERMS Stor dataapplikation, kluster, samarbetsfiltrering, mashup. | REF föreslog ClubCF-baserade molntjänster för big data-applikationer. | 15,062,610 | ClubCF: A Clustering-Based Collaborative Filtering Approach for Big Data Application | {'venue': 'IEEE Transactions on Emerging Topics in Computing', 'journal': 'IEEE Transactions on Emerging Topics in Computing', 'mag_field_of_study': ['Computer Science']} | 8,172 |
Abstract-Recently, fysisk lager nätverk kodning (PNC) drar till sig mycket uppmärksamhet på grund av sin förmåga att förbättra genomströmningen i relä-stödd kommunikation. Genomförandet av PNC är dock fortfarande ett pågående arbete, och synkronisering är en viktig och svår fråga. I detta dokument undersöks möjligheten att synkronisera PNC med M-ary quadrature amplitud modulation (M-QAM). Vi föreslår först ett synkroniseringssystem för PNC. Därefter analyserar vi synkroniseringsfelen och omkostnaderna för potentiella synkroniseringstekniker, som inkluderar faslåsade slingor (PLL) och maximal sannolikhetsbedömning (MLE) baserade synkroniseringssystem. Deras effekter på den genomsnittliga symbolfelfrekvensen och goodput diskuteras därefter. Baserat på analysen gör vi numeriska utvärderingar och avslöjar att synkrona PNC kan överträffa konventionell nätverkskodning (CNC) även när synkroniseringsfel och overhead beaktas. Den teoretiska genomströmningsvinsten av PNC över CNC kan man närma sig när man använder den MLE-baserade synkroniseringsmetoden med optimerad träningssekvenslängd. Resultaten i detta dokument ger vissa insikter och riktmärken för genomförandet av synkrona PNC. | För ett liknande ändamål har upphovsmännen till Ref föreslagit ett synkroniseringssystem för PNC med QAM-moduleringssystem. | 9,243,241 | Synchronous Physical-Layer Network Coding: A Feasibility Study | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Computer Science']} | 8,173 |
I detta dokument presenteras ett nytt tillvägagångssätt för att utnyttja det globala sammanhanget för uppgiften att uttrycka sense disambiguation (WSD). Detta görs genom att använda ämnesfunktioner konstruerade med latent dirichlet allocation (LDA) algoritm på omärkta data. Funktionerna är införlivade i en modifierad naiv Bayes nätverk tillsammans med andra funktioner såsom del-av-tal grannord, enstaka ord i det omgivande sammanhanget, lokala collocations, och syntaktiska mönster. I både den engelska all-words uppgiften och den engelska lexical prov uppgift, metoden uppnådde betydande förbättring jämfört med den enkla naiva Bayes klassificerare och högre noggrannhet än de bästa officiella poäng på Senseval-3 för båda uppgiften. | REF införlivar ämnesegenskaper i ett övervakat WSD-ramverk. | 1,590,844 | Improving Word Sense Disambiguation Using Topic Features | {'venue': '2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,174 |
ABSTRACT Som en framträdande underkategori av cyberfysiska system skulle mobila cyberfysiska system kunna dra nytta av allmänt använda mobila enheter, såsom smartphones, som en bekväm och ekonomisk plattform som underlättar sofistikerade och allestädes närvarande mobila avkänningsprogram mellan människor och den omgivande fysiska världen. I detta dokument presenteras Vita, ett nytt mobilt cyberfysiskt system för crowdsensing applikationer, som gör det möjligt för mobila användare att utföra mobila crowdsensing uppgifter på ett effektivt sätt via mobila enheter. Vita erbjuder en flexibel och universell arkitektur över mobila enheter och molnbaserade datorplattformar genom att integrera den serviceorienterade arkitekturen med resursoptimeringsmekanism för crowdsensing, med omfattande stöd till applikationsutvecklare och slutanvändare. Den skräddarsydda plattformen av Vita möjliggör intelligenta driftsättningar av uppgifter mellan människor i den fysiska världen, och dynamiska samarbeten av tjänster mellan mobila enheter och cloud computing plattform under körtiden av mobila enheter med felhantering stöd. Våra praktiska experiment visar att Vita utför sina uppgifter effektivt med en låg beräkning och kommunikation overhead på mobila enheter, och underlättar utvecklingen av flera mobila crowdsensing applikationer och tjänster. Dessutom presenterar vi en mobil crowdsensing applikation, Smart City, utvecklad på Vita för att visa funktioner och praktisk användning av Vita. INDEX TERMS Mobilt cyberfysiskt system, crowdsensing, systemarkitektur, sociala nätverk, moln. | En annan crowd-sensing plattform är VITA REF, ett mobilt cyberfysiskt system för crowd-sensing applikationer. | 14,926,926 | Vita: A Crowdsensing-Oriented Mobile Cyber-Physical System | {'venue': 'IEEE Transactions on Emerging Topics in Computing', 'journal': 'IEEE Transactions on Emerging Topics in Computing', 'mag_field_of_study': ['Computer Science']} | 8,175 |
Kooperativ cachelagring, som gör det möjligt att dela och samordna data som lagras mellan kunder, är en potentiell teknik för att förbättra dataåtkomstprestandan och tillgängligheten i mobila ad hoc-nät. Variabla datastorlekar, frekventa datauppdateringar, begränsade kundresurser, otillräcklig trådlös bandbredd och klientens rörlighet gör dock cachehanteringen till en utmaning. I detta dokument föreslår vi en verktygsbaserad policy för utbyte av cache, minst nyttovärde (LUV), för att förbättra datatillgängligheten och minska det lokala cachemissförhållandet. LUV beaktar flera faktorer som påverkar cacheprestanda, nämligen åtkomstsannolikhet, avstånd mellan begäraren och datakälla/cache, samstämmighet och datastorlek. En samarbetsstrategi för hantering av cache, Zone Cooperative (ZC), utvecklas som använder LUV som ersättningspolicy. I ZC en-hop grannar en klient bildar en samarbetszon eftersom kostnaden för kommunikation med dem är låg både i fråga om energiförbrukning och meddelandeutbyte. Simuleringsförsök har utförts för att utvärdera prestandan hos LUV-baserad ZC-cachestrategi. Simuleringsresultaten visar att LUV:s ersättningspolicy avsevärt överträffar LRU:s policy. | Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. föreslår Zone Cooperative (ZC) caching system Ref för MANETS som är effektiv. | 28,933,828 | Cooperative caching in mobile ad hoc networks based on data utility | {'venue': 'Mobile Information Systems', 'journal': 'Mobile Information Systems', 'mag_field_of_study': ['Computer Science']} | 8,176 |
Videobaserad personidentifiering (re-id) är en central tillämpning i övervakningssystem med betydande säkerhetsproblem. Att matcha personer över delade kameravyer i deras videofragment är till sin natur utmanande på grund av de stora visuella variationerna och okontrollerade bildhastigheter. Det finns två steg som är avgörande för personens re-id, nämligen discriminative feature learning och metrisk learning. Befintliga metoder tar dock hänsyn till de två stegen oberoende av varandra, och de utnyttjar inte den tidsbundna och rumsliga informationen fullt ut i videorna. I detta dokument föreslår vi en siamesisk uppmärksamhetsarkitektur som tillsammans lär sig spatiotemporala videorepresentationer och deras likhetsmått. Nätverket extraherar lokala konvolutionella funktioner från regioner i varje ram och förbättrar deras diskriminativa förmåga genom att fokusera på olika regioner när man mäter likheten med en annan fotgängarvideo. Uppmärksamhetsmekanismen är inbäddad i rumsliga gated återkommande enheter för att selektivt sprida relevanta funktioner och memorera deras rumsliga beroenden genom nätverket. Modellen lär sig i huvudsak vilka delar (där) från vilka ramar (när) är relevanta och särskiljande för matchande personer och fäster större vikt där. Den föreslagna Siamese modellen är end-to-end trainingable att gemensamt lära sig jämförbara dolda representationer för parade fotgängarvideor och deras likhetsvärde. Omfattande experiment på tre referensdatauppsättningar visar effektiviteten hos varje komponent i det föreslagna djupa nätverket, samtidigt som de senaste metoderna överträffas. Index Terms-Video-baserad person om-identifikation, gated återkommande enheter, rumsliga korrelationer, visuell uppmärksamhet. | Till exempel, Deep Siamese Uppmärksamhet Networks REF utformar en siamese uppmärksamhet arkitektur som gemensamt lär spatiotemporal video representationer och deras likhetsmått. | 51,929,846 | Where-and-When to Look: Deep Siamese Attention Networks for Video-Based Person Re-Identification | {'venue': 'IEEE Transactions on Multimedia', 'journal': 'IEEE Transactions on Multimedia', 'mag_field_of_study': ['Computer Science']} | 8,177 |
Crowd management är av största vikt när det gäller att förebygga panik och rädda liv, särskilt i länder som Kina och Indien där den sammanlagda befolkningen är en tredjedel av den globala befolkningen. Miljontals människor samlas årligen runt om i landet för att fira en myriad av händelser och crowd count uppskattning är grundbulten i crowd management system som skulle kunna förhindra utsvävningar och rädda liv. Vi presenterar ett nätverk för crowd counting som rapporterar toppmoderna resultat på crowd counting riktmärken. Våra bidrag är först en U-Net inspirerad modell som ger oss möjlighet att rapportera toppmoderna resultat. För det andra föreslår vi en oberoende avdelning för avkodningsförstärkning som hjälper nätverket att konvergera mycket tidigare och även gör det möjligt för nätverket att uppskatta densitetskartor med högt strukturindex (SSIM). För det tredje diskuterar vi nackdelarna med de samtida arkitekturerna och empiriskt visar att även om vår arkitektur uppnår toppmoderna resultat, kan förtjänsten bero på encoder-dekoder pipeline istället. Slutligen rapporterar vi felanalysen som visar att den nuvarande arbetslinjen är mättad och lämnar vissa framträdande problem olösta. | I en annan studie, Mehta et al. REF föreslog oberoende avkodning förstärkning gren som en binär klassificerare som hjälper nätverket konvergera mycket tidigare och gör det också möjligt för nätverket att uppskatta densitet kartor med hög strukturell likformighet Index (SSIM). | 85,531,570 | W-Net: Reinforced U-Net for Density Map Estimation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 8,178 |
Vertikal aggregering är uppgiften att införliva resultat från specialiserade sökmotorer eller vertikala (t.ex., bilder, video, nyheter) i Web sökresultat. Vertikalt urval är deluppgiften att bestämma, med tanke på en fråga, vilka vertikala, om några, är relevanta. Toppmoderna metoder använder maskininlärda modeller för att förutsäga vilka vertikaler som är relevanta för en fråga. Vid utbildning med hjälp av en stor uppsättning märkta data överträffar en maskininlärd vertikal urvalsmodell utgångsvärden som inte kräver några träningsdata. Närhelst en ny vertikal införs måste man tyvärr samla in en kostsam ny uppsättning redaktionella uppgifter. I detta dokument föreslår vi metoder för återanvändning av utbildningsdata från en uppsättning befintliga (källa) vertikaler för att lära sig en prediktiv modell för en ny (mål) vertikal. Vi studerar metoder för att lära oss robusta, bärbara och adaptiva tvärvertikala modeller. Experiment visar behovet av att fokusera på olika typer av funktioner när maximera portabilitet (förmågan för en enda modell att göra exakta förutsägelser över flera vertikala) än när maximera anpassningsförmåga (förmågan för en enda modell att göra exakta förutsägelser för en specifik vertikal ). Vi demonstrerar effektiviteten av våra metoder genom omfattande experiment för 11 vertikaler. | Arguello m.fl. REF föreslog att man skulle återanvända utbildningsdata från en uppsättning vertikaler som redan har betydande trafik för att lära sig en prediktiv intentionsmodell för nya oigenkännliga vertikaler utan landningstrafik. | 3,154,837 | Vertical selection in the presence of unlabeled verticals | {'venue': "SIGIR '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,179 |
Vi anser att två aktiva binär-klassificering problem med atypiska mål. I det första aktiva sökandet är vårt mål att aktivt avslöja så många medlemmar av en viss klass som möjligt. I den andra, aktiva kartläggningen, är vårt mål att aktivt fråga poäng för att slutligen förutsäga andelen av en viss klass. Många verkliga problem kan beskrivas i dessa termer, och i båda fallen är typiska modellbaserade problem som generaliseringsfel endast av underordnad betydelse. Vi närmar oss dessa problem via Bayesian beslutsteori; efter att ha valt naturliga nyttofunktioner, vi härleda den optimala politiken. Vi ger tre bidrag. Förutom att introducera det aktiva undersökningsproblemet utökar vi tidigare arbete med aktiv sökning på två sätt. För det första bevisar vi ett nytt teoretiskt resultat, att mindre myopiska approximationer till den optimala politiken kan överträffa mer myopiska approximationer i godtycklig grad. Vi drar sedan slutsatsen att vissa modeller gör det möjligt för oss att (i praktiken dramatiskt) minska det exponentiella sökområde som krävs för ett naivt genomförande av den optimala politiken, vilket möjliggör ytterligare uppslagsverk samtidigt som vi ser till att optimala beslut alltid fattas. | Aktiv sökning syftar till att upptäcka så många medlemmar i en viss klass som möjligt REF. | 10,660,879 | Bayesian Optimal Active Search and Surveying | {'venue': 'ICML', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 8,180 |
ABSTRACT Effektiv cryptocurrency nyckelhantering har blivit ett brådskande krav för modern cryptocurrency. Även om ett stort antal system för hantering av cryptocurrency-plånböcker har föreslagits, är de oftast konstruerade för specifika tillämpningsscenarier och lider ofta av svag säkerhet. I detta dokument föreslår vi ett mer effektivt, användbart och säkert plånbokshanteringssystem för cryptocurrency baserat på halvt betrodda sociala nätverk, där användarna kan samarbeta med berörda parter för att uppnå vissa kraftfulla funktioner och återhämtning under vissa omständigheter. Dessutom använder vi oss av ett identitetsbaserat hierarkiskt nyckelisolerat krypteringssystem för att få tillstånd till tidsdelning och presentera ett semitrusted portabelt, socialt nätverkbaserat plånbokshanteringssystem som tillhandahåller funktionerna för säkerhetsförstärkt lagring, portabel inloggning på olika enheter, autentisering utan lösenord, flexibel nyckeldelegation och så vidare. Resultatanalysen visar att våra föreslagna system kräver minimala extra omkostnader och har låga tidsfördröjningar, vilket gör dem tillräckligt effektiva för att kunna användas i verkligheten. INDEX TERMS Cryptographic protokoll, cryptocurrency, plånbokshantering protokoll. | Han och Al. REF lade fram ett system för krypteringsplånbok baserat på ett till hälften betroddt socialt nätverk. | 3,800,749 | A Social-Network-Based Cryptocurrency Wallet-Management Scheme | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 8,181 |
Mycket distribuerad utbildning av Deep Neural Networks (DNN) på framtida beräkningsplattformar (som erbjuder 100 TeraOps/s av beräkningskapacitet) förväntas vara kraftigt kommunikationsbegränsad. För att övervinna denna begränsning behövs nya gradientkompression tekniker som är beräkningsvänliga, tillämpliga på en mängd olika lager sett i Deep Neural Networks och anpassningsbara till variationer i nätverksarkitekturer samt deras hyper-parametrar. I detta dokument introducerar vi en ny teknik - Adaptive Residual Gradient Compression (AdaComp) Scheme. AdaComp baseras på lokaliserat urval av gradientrester och justerar automatiskt komprimeringshastigheten beroende på lokal aktivitet. Vi visar utmärkta resultat på ett brett spektrum av toppmoderna Deep Learning modeller i flera domäner (vision, tal, språk), datauppsättningar (MNIST, CIFAR10, ImageNet, BN50, Shakespeare), optimeringar (SGD med momentum, Adam) och nätverksparametrar (antal elever, minibatch-storlek etc.). Utnyttja både sparhet och kvantisering, visar vi end-to-end kompressionshastigheter på 200× för fullt anslutna och återkommande lager, och på 40× för konvolutionella lager, utan någon märkbar nedbrytning i modell accuracies. | AdaComp Ref föreslår att komprimeringshastigheten automatiskt justeras beroende på lokal gradientaktivitet. | 12,819,746 | AdaComp : Adaptive Residual Gradient Compression for Data-Parallel Distributed Training | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 8,182 |
Artificiella neurala nätverk har framgångsrikt applicerats på en mängd olika maskininlärning uppgifter, inklusive bildigenkänning, semantisk segmentering, och maskinöversättning. Dock har få studier undersökt ensembler av artificiella neurala nätverk. I detta arbete undersökte vi flera allmänt använda ensemble metoder, inklusive oviktad medelvärde, majoritetsröstning, Bayes Optimal Classifier, och (diskrete) Super Learner, för bildigenkänning uppgifter, med djupa neurala nätverk som kandidatalgoritmer. Vi designade flera experiment, där kandidatalgoritmerna är samma nätverksstruktur med olika modellkontrollpunkter inom en och samma utbildningsprocess, nätverk med samma struktur men tränade flera gånger stokastiskt och nätverk med olika struktur. Dessutom har vi studerat överkonfidensfenomenet i de neurala nätverken, samt dess inverkan på ensemblemetoderna. Över alla våra experiment uppnådde Super Learner bästa prestanda bland alla ensemblemetoder i denna studie. | De drog slutsatsen att Super Learner uppnår bästa prestanda bland alla studerade ensemblealgoritmer REF. | 15,959,569 | The Relative Performance of Ensemble Methods with Deep Convolutional Neural Networks for Image Classification | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Medicine']} | 8,183 |
Abstract-Stor skala användarbeteende kan användas som vägledning för distribution, konfiguration och servicekontroll i heterogena cellulära nätverk (HCN). I trådlösa nätverk följer dock ett storskaligt användarbeteende (när det gäller trafikfluktuationer i det rumsliga området) en ohomogen distribution, vilket medför enorma utmaningar för den energieffektiva utformningen av HCN:er. I detta papper är heterogeniteten i storskaliga användares beteende kvantitativt karakteriseras och utnyttjas för att studera energieffektivitet (EE) i HCNs. Ett optimeringsproblem är formulerat för energieffektiv installation och konfiguration i två nivåer, där basstationens (BS) densitet, BS-överföringseffekt, BS-statisk effekt och servicekvalitet beaktas. Vi presenterar slutna formler som fastställer det kvantitativa förhållandet mellan storskaligt användarbeteende och energieffektiv HCN-konfiguration. Dessa resultat kan användas för att bestämma BS densitet och BS överföringseffekt med målet att uppnå optimal EE. Dessutom presenterar vi tre energieffektiva kontrollstrategier för mikro BS, inklusive mikro BS sömnkontroll, täckning expansionskontroll och täckning krympande kontroll. Simuleringsresultat validerar vår teoretiska analys och visar att de föreslagna kontrollstrategierna potentiellt kan leda till betydande energibesparing. Index Terms-Heterogena cellulära nätverk, energieffektivitet, resurshantering, storskaligt användarbeteende, trafik. | Heterogena nätverk baserade på storskaligt användarbeteende föreslogs i REF, där heterogeniteten hos storskaligt användarbeteende är kvantitativt karakteriserad och utnyttjas för att studera energieffektivitetsprestanda. | 27,351,836 | Energy-Efficient Design in Heterogeneous Cellular Networks Based on Large-Scale User Behavior Constraints | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 8,184 |
Intelligenta agenter måste kunna göra förutsägelser om sin omgivning. I detta arbete presenterar vi ett nytt tillvägagångssätt för att lära sig en framåt simuleringsmodell via enkel sökning över pixelinmatning. Vi använder oss av ett videospel, Super Mario Bros., som ett första test av vår strategi eftersom det representerar ett fysiksystem som är betydligt mindre komplex än verkligheten. Vi demonstrerar den betydande förbättringen av vår strategi för att förutsäga framtida stater jämfört med en baslinje CNN och tillämpa den lärda modellen för att träna en spelagent. Således utvärderar vi algoritmen i termer av noggrannheten och värdet av dess output modell. | Tidigare arbete REF använde en feed-forward convolutional neural network (CNN) för att lära sig en framåt simulering modell av ett videospel. | 5,797,763 | Game engine learning from video | {'venue': 'IJCAI', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,185 |
Hanteringen av invasiv mekanisk ventilation och regleringen av sedering och analgesi under ventilationen utgör en stor del av vården av patienter som tas in på intensivvårdsenheter. Både långvarigt beroende av mekanisk ventilation och för tidig extubering är förknippade med ökad risk för komplikationer och högre sjukhuskostnader, men klinisk uppfattning om det bästa protokollet för avvänjning av patienter utanför en ventilator varierar. Detta arbete syftar till att utveckla ett beslutsstöd verktyg som använder tillgänglig patientinformation för att förutsäga tid till extubation beredskap och att rekommendera en personlig regim av sedering dosering och ventilator stöd. I detta syfte använder vi off-policy förstärkning inlärningsalgoritmer för att bestämma den bästa åtgärden vid en given patienttillstånd från sub-optimala historiska ICU-data. Vi jämför behandlingspolicyer från anpassad Qitering med extremt randomiserade träd och med feedforward neurala nätverk, och visar att de policys inlärda visar löfte i att rekommendera avvänjning protokoll med förbättrade resultat, i termer av minimering hastigheter av reintubation och reglera fysiologisk stabilitet. | REF använde sig av icke-politiskt förstärkande lärande för att förbättra doseringspolicyn inom intensivvården. | 16,723,627 | A Reinforcement Learning Approach to Weaning of Mechanical Ventilation in Intensive Care Units | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 8,186 |
Den mänskliga hjärnan är ett komplext system vars topologiska organisation kan representeras med hjälp av connectomics. Nya studier har visat att mänskliga connectomes kan konstrueras med hjälp av olika neuroimaging tekniker och ytterligare karakteriseras med hjälp av sofistikerade analytiska strategier, såsom grafteori. Dessa metoder avslöjar de spännande topologiska arkitekturerna i mänskliga hjärnnätverk i friska populationer och utforskar förändringarna under normal utveckling och åldrande och under olika patologiska förhållanden. Med tanke på denna metods enorma komplexitet saknas dock fortfarande verktygslådor för grafbaserad nätverksvisualisering. Här, med hjälp av MATLAB med ett grafiskt användargränssnitt (GUI), utvecklade vi en graf-teoretisk nätverk visualisering verktygslåda, kallad BrainNet Viewer, för att illustrera mänskliga connectomes som ball-and-stick modeller. I denna verktygslåda kan flera kombinationer av definierade filer med connectome-information laddas för att visa olika kombinationer av hjärnyta, noder och kanter. Dessutom kan visningsegenskaper, såsom färg och storlek på nätverkselement eller layouten av figuren, justeras i en omfattande men lättanvänd inställningspanel. Dessutom drar BrainNet Viewer hjärnans yta, noder och kanter i sekvens och visar hjärnnätverk i flera vyer, som krävs av användaren. Figuren kan manipuleras med vissa interaktionsfunktioner för att visa mer detaljerad information. Dessutom kan siffrorna exporteras som vanligt använda bildfilformat eller demonstrationsvideo för vidare användning. BrainNet Viewer hjälper forskare att visualisera hjärnnätverk på ett enkelt, flexibelt och snabbt sätt, och denna programvara är fritt tillgänglig på NITRC:s webbplats (www.nitrc.org/projects/bnv/). | Xia m.fl. REF introducera BrainNet Viewer för att visa hjärnytor, noder och kanter samt egenskaper hos nätverket. | 13,862,878 | BrainNet Viewer: A Network Visualization Tool for Human Brain Connectomics | {'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 8,187 |
Medan varje nätverksnod endast förmedlar meddelanden i ett traditionellt kommunikationssystem, föreslår den senaste nätverkskodning (NC) paradigm att genomföra enkel i-nätverk bearbetning med paketkombinationer i noderna. NC utökar begreppet "kodning" ett meddelande bortom källkod (för kompression) och kanalkodning (för skydd mot fel och förluster). Det har visat sig öka nätgenomströmningen jämfört med det traditionella nätgenomförandet, minska förseningarna och ge robusthet åt överföringsfel och nätdynamik. Dessa egenskaper är så tilltalande för multimediatillämpningar att de har stimulerat en stor forskningsinsats för att utveckla multimediaspecifika NC-tekniker. I detta dokument granskas det senaste arbetet i NC för multimediatillämpningar och man fokuserar på de tekniker som fyller gapet mellan NC-teori och praktiska tillämpningar. Den beskriver NC:s fördelar och presenterar de öppna utmaningarna på detta område. Dokumentet fokuserar till att börja med på multimediaspecifika aspekter av nätkodning, särskilt fördröjning, felkontroll i nätverk och mediespecifik felkontroll. Dessa aspekter gör det möjligt att hantera varierande nätverksförhållanden samt kund heterogenitet, som är avgörande för utformningen och utbyggnaden av multimediasystem. Efter att ha introducerat dessa allmänna koncept går man i detalj igenom två tillämpningar som naturligt NC ägnar sig åt via samarbets- och sändningsmodellerna, nämligen streaming av peer-to-peer-multimedia och trådlösa nätverk. Jag. INLEDNING Nätverkskodning (NC) är ett av de senaste genombrotten inom kommunikationsforskning. Det har först föreslagits [1] och kan påverka alla kommunikations- och nätverksområden. I ett nötskal är det konventionella nätverksparadigmet baserat på routing, där paketen vidarebefordras till destinationen av varje nätverksnod. NC bygger på tanken att mellanliggande nätverk noder processpaket förutom att återsända dem. Bearbetning innebär vanligtvis att generera och skicka nya utdatapaket som linjära kombinationer av de inkommande. Det kan göras på olika nivåer av den klassiska protokoll stacken (transport / applikation, MAC / IP, fysiska lager, och gemensam bearbetning som omfattar flera lager). Detta nya paradigm innebär en radikal förändring i utformningen av kommunikationsnät och -tillämpningar. Multimedia leveranstekniker är starkt beroende av transport och nätverk lager av kommunikationsprotokoll stacken. Multimediakommunikation har optimerats för att fullt ut utnyttja de traditionella protokollen och maximera kvaliteten på tjänsten. Med det nya NC-paradigmet i nätverk med käll-, väg- och kamratmångfald måste de traditionella kodnings- och kommunikationsmetoderna omprövas när det gäller hur paket skapas, kombineras och levereras. I synnerhet skulle multimediatillämpningar helt klart kunna dra nytta av de förbättringar som NC erbjuder när det gäller ökat genomflöde, minskad sårbarhet för paketraderingar och enkel spridning i stora distribuerade system. Konceptet NC har ursprungligen utformats i informationsteorigemenskapen. Klyftan mellan de teoretiska informationsmodellerna och modellerna för verkliga multimedietillämpningar är ganska stor. Detta har genererat ett stort intresse för att utveckla NC-system som ger betydande fördelar i multimediaapplikationer, särskilt i peer-to-peer (P2P) streaming och trådlösa kommunikationssystem. I synnerhet multimediatillämpningar utgör unika och viktiga utmaningar beroende på tillämpningsscenariot, såsom stora mängder data, stränga tidsbegränsningar, heterogenitet i paketets betydelse samt i klientuppsättningen. Därför måste praktiska NC-algoritmer vara särskilt utformade för att klara av dessa utmaningar under flera ytterligare begränsningar från realistiska inställningar. För det första måste avkodningskomplexet förbli rimligt för avkodning i realtid. För det andra måste algoritmerna vara skalbara och robusta för att hantera dynamiken i källorna, de mellanliggande noderna och vägarna i en stor nätverksinfrastruktur. Slutligen måste NC-lösningarna vara anpassade för att ta hänsyn till olika tidsbegränsningar när det gäller att leverera multimedieinnehåll, eftersom dessa är bland de mest grundläggande frågor som bör behandlas i ett realistiskt multimediasystem. Alla dessa frågor kräver en lämplig utformning av det distribuerade kommunikationsprotokollet och effektiva kodningsstrategier. På samma sätt som den traditionella multimediakommunikationsramen är de mest lovande lösningarna i NC-system helt säkert beroende av optimering av end-to-end-system baserat på en gemensam utformning av källkoden och nätkoden, där tids- eller komplexitetsbegränsningar läggs till problemet med datakommunikation. Syftet med detta dokument är att se över det arbete som nyligen utförts i NC-baserad multimediakommunikation och att tillhandahålla en omfattande kartläggning av de problem som helt eller delvis har lösts, tillsammans med de öppna forskningsfrågorna. Papperet guidar läsarna genom dessa problem på följande sätt. I avsnitt II går vi kort igenom NC-teorin, sammanfattar de viktigaste teoretiska resultaten och sätter dem i samband med praktiska tillämpningar för multimediakommunikation. I avsnitt III ser vi över de specifika NC-tekniker som har utvecklats för att ta itu med de frågor som nämns ovan. Vår analys omfattar felkontroll inom nätverket samt mediaspecifik felkontroll. Den förstnämnda avser NC-tekniker som har som mål att maximera nätverksprestandan från en "multimedia" synvinkel, t.ex. Minimera fördröjningen. Mediespecifik felkontroll introducerar distorsion i NC-inställningen, med användning av nätverksorienterade källkoder baserade på skiktad och flera beskrivningskodning. NC-teknik med låg komplexitet beaktas också. Avsnitt IV och V beskriver två specifika tillämpningsområden för NC-principer, nämligen P2P och trådlösa nätverk. Dessa är viktiga eftersom de naturligtvis lånar sig till NC på grund av samarbete och sändningsmodeller. I synnerhet gäller avsnitt IV användningen av NC för medieströmning via P2P. Den beskriver i detalj hur NC kan radikalt förändra hur P2P streaming system är utformade, utnyttja en kodad representation som underlättar distribution och streaming av innehåll. Det innehåller också en diskussion om NC för både live och on-demand streaming. Avsnitt V är avsett för tillämpningar av NC i trådlösa nätverk, med beaktande av olika topologier, | Intresserad läsare kan också se REF som är en bra översyn av vilken roll nätkodning för multimedia leverans. | 3,200,945 | Network Coding Meets Multimedia: a Review | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 8,188 |
Trots de senaste framstegen i ansiktsigenkänning med hjälp av djup inlärning, allvarliga noggrannhet droppar observeras för stora pose variationer i okonstruerade miljöer. Inlärning poseinvariant funktioner är en lösning, men behöver dyrt märkta storskaliga data och noggrant utformade funktioner lärande algoritmer. I detta arbete fokuserar vi på frontaliserande ansikten i det vilda under olika huvudposer, inklusive extrema profilvyer. Vi föreslår en ny djup 3D Morphable Model (3DMM) conditioned Face Frontalization Generative Adversarial Network (GAN), som kallas FF-GAN, för att generera neutrala huvudpose ansiktsbilder. Vårt ramverk skiljer sig från både traditionella GAN och 3DMM-baserade modeller. Inkorporera 3DMM i GAN strukturen ger form och utseende tidigare för snabb konvergens med mindre träningsdata, samtidigt som den stöder end-to-end utbildning. Den 3DMMkonditionerade GAN använder inte bara discriminator och generator förlust men också en ny maskerad symmetri förlust för att behålla visuell kvalitet under ocklusioner, förutom en identitetsförlust för att återvinna hög frekvens information. Experiment på ansikte erkännande, landmärke lokalisering och 3D rekonstruktion visar konsekvent fördelen med vår frontaliseringsmetod på ansikten i vilda dataset. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. | Dessutom, Yin et al. föreslog en djup 3DMM-konditionerad frontaliseringsmetod som kallas FF-GAN REF, som innehåller 3DMM koefficienter i GAN-strukturen för att ge poser före ansiktsfrontalisering uppgift. | 2,806,929 | Towards Large-Pose Face Frontalization in the Wild | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 8,189 |
Abstract-Targeted reklam har varit föremål för många klagomål integritet från både användare och beslutsfattare. Trots denna uppmärksamhet har användarna fortfarande liten förståelse för vilka uppgifter reklamplattformarna har om dem och varför de visas särskilda annonser. För att ta itu med sådana problem införde Facebook nyligen två öppenhetsmekanismer: en "Varför ser jag detta?" knapp som ger användarna en förklaring till varför de visades en viss annons (ad förklaringar), och en annonsinställningar sida som ger användarna en lista över attribut Facebook har dragit slutsatsen om dem och hur (data förklaringar). I detta dokument undersöker vi graden av öppenhet som tillhandahålls av dessa två mekanismer. Vi definierar först ett antal nyckelegenskaper i förklaringar och utvärderar sedan empiriskt om Facebooks förklaringar tillfredsställer dem. För våra experiment utvecklar vi en webbläsartillägg som samlar in annonserna användare får varje gång de surfar Facebook, deras respektive förklaringar, och de attribut som anges på Ad Preference Page; vi använder sedan kontrollerade experiment där vi skapar våra egna annonskampanjer och riktar sig till de användare som installerat vår förlängning. Våra resultat visar att annonsförklaringar ofta är ofullständiga och ibland vilseledande medan uppgiftsförklaringar ofta är ofullständiga och vaga. Sammantaget får våra resultat betydande konsekvenser för användare, beslutsfattare och tillsynsmyndigheter när reklamtjänster för sociala medier mognar. | I ett försök att sprida ljus över Facebooks annons ekosystem, Andreou et al. undersöka graden av insyn i mekanismerna "Varför ser jag detta?" och annonsinställningar sida REF. | 2,945,228 | Investigating Ad Transparency Mechanisms in Social Media: A Case Study of Facebooks Explanations | {'venue': 'NDSS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,190 |
Sammanfattning av denna webbsida: Mikrotopografiska variationer i torvmarker har ett starkt inflytande på växthusgasflöden, men vi saknar förmågan att effektivt karakterisera terrängen i dessa miljöer över stora områden. För att ta itu med detta bedömde vi kapaciteten hos fotogrammetriska data som erhållits från ett obemannade luftfartyg (UAV eller drönare) för att reproducera markhöjder uppmätta i fält. Framför allt har vi för avsikt att utvärdera i) växtlighetens/ytans komplexitet och ii) kompletterande LiDAR-data om resultaten. Vi jämförde fjärrsensoriska observationer med referensmätningar förvärvade med undersökningskvalitet GPS-utrustning på 678 provpunkter, fördelade över en 61-hektars trädmosse i nordvästra Alberta, Kanada. UAV fotogrammetrisk data befanns fånga höjd med accuracies, med rot medel kvadrater fel, allt från 14-42 cm, beroende på tillståndet för vegetation / yta komplexitet. Vi bedömer tekniken för att prestera bra under alla utom de mest komplexa förhållanden, där mark sikt hindras av tjock vegetation. Kompletterande LiDAR-data förbättrade inte resultaten signifikant, inte heller fungerade det bra som en fristående teknik vid de låga densiteter som vanligtvis finns tillgängliga för forskare. | Dessutom befanns UAV fotogrammetrisk data fånga höjd med noggrannhet, med rot medel kvadrat fel, från 14 till 42 cm, beroende på ytan komplexitet REF. | 23,392,865 | Assessing the Value of UAV Photogrammetry for Characterizing Terrain in Complex Peatlands | {'venue': 'Remote Sensing', 'journal': 'Remote Sensing', 'mag_field_of_study': ['Computer Science', 'Geology']} | 8,191 |
Nästan alla nuvarande topppresterande objektdetekteringsnätverk använder regionala förslag för att vägleda sökandet efter objektinstanser. De senaste metoderna för förslag från regionen kräver i regel flera tusen förslag för att få hög uppmärksamhet, vilket skadar detektionseffektiviteten. Även om den senaste regionförslagsnätverksmetoden får lovande detekteringsnoggrannhet med flera hundra förslag, kämpar den fortfarande med små objektdetektering och exakt lokalisering (t.ex. stora IoU-trösklar), främst på grund av grovheten i dess funktionskartor. I detta dokument presenterar vi ett djupt hierarkiskt nätverk, nämligen HyperNet, för hantering av regionförslagsgenerering och objektdetektering gemensamt. Vår HyperNet är främst baserad på en noggrant utformad Hyper Feature som aggregat hierarkiska funktionskartor först och sedan komprimerar dem till ett enhetligt utrymme. Hyper funktioner väl införliva djupa men mycket semantiska, mellanliggande men verkligen kompletterande, och grunda men naturligt högupplösta funktioner i bilden, vilket gör det möjligt för oss att konstruera HyperNet genom att dela dem både för att generera förslag och upptäcka objekt via en end-to-end gemensam utbildningsstrategi. För den djupa VGG16 modellen uppnår vår metod helt ledande återkallande och toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007 och 2012 med endast 100 förslag per bild. Den löper med en hastighet av 5 fps (inklusive alla steg) på en GPU och har därmed potential för realtidsbearbetning. | HyperNet REF är främst baserad på en noggrant utformad Hyper Feature som aggregat hierarkiska funktionskartor först och sedan komprimerar dem till ett enhetligt utrymme. | 7,087,523 | HyperNet: Towards Accurate Region Proposal Generation and Joint Object Detection | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 8,192 |
Abstract-Uppkomsten av cloud computing och dess elastiska, ondemand resurse provisioning introducerar behovet av en flexibel och skalbar multi-tenant arkitektur. I en multi-tentant ansökan varje hyresgäst (klient) använder sig av delade ansökningsinstanser, men varje hyresgäst har vanligtvis sina egna användardata. Den delade applikationsinstansen beter sig som en privat instans genom att garantera både dataseparation och prestandaseparation för varje hyresgäst. I takt med att antalet hyresgäster ökar ökar datamängden. En skalbar lösning för lagring behövs, vilket gör att hyresgästdata kan delas upp över flera databasinstanser, men med hänsyn till prestandaisolering och anpassade datasäkringspolicyer. I detta dokument introducerar vi ett abstraktionslager för att uppnå hög skalbarhet för lagring av hyresgästuppgifter. Detta skikt använder dataalgoritmer för att bestämma en godtagbar fördelning av hyresgästdata till olika databaser. Vi beskriver en matematisk modell för tilldelning av hyresgästdata som kan optimeras med hjälp av befintliga linjära programmeringstekniker, och introducerar BDAA-n och FDAA, två algoritmer som kommer att hitta en optimal fördelning av data genom att iterera över möjliga permutationer. De föreslagna lösningarna utvärderas utifrån deras flexibilitet, komplexitet och effektivitet. Flexibiliteten i BDAA och FDAA gör dem enkla att anpassa och förlänga för att passa de flesta scenarier, men algoritmerna kommer att uppnå bästa resultat för hyresgäster med ett begränsat antal subtenanter. Linjär programmering är ett alternativ för hyresgäster med ett större antal subtentanter, men algoritmens anpassningsförmåga för specifika användningsfall är begränsad på grund av behovet av linjära funktioner. | I REF presenterade vi flera dataalgoritmer för att hitta en godtagbar tilldelning av hyresgästdata till olika databasinstanser. | 8,099,630 | Scalable user data management in multi-tenant cloud environments | {'venue': '10th International Conference on Network and Service Management (CNSM) and Workshop', 'journal': '10th International Conference on Network and Service Management (CNSM) and Workshop', 'mag_field_of_study': ['Computer Science']} | 8,193 |
Numera i tunisien, har den arabiska tunisiska Dialect (TD) successivt använts i intervjuer, nyheter och debatt program i stället för Modern Standard Arabiska (MSA). Detta gav således upphov till ett nytt språk. Majoriteten av talen görs inte längre i MSA utan alternerar mellan MSA och TD. Denna situation har viktiga negativa konsekvenser för automatisk taligenkänning (ASR): eftersom de talade dialekterna inte är officiellt skrivna och inte har en vanlig ortografi, är det mycket kostsamt att få tillräckligt med kommenterade corpora att använda för att träna språkmodeller och bygga ordförråd. Det finns varken parallellkorpora med tunisisk dialekt och MSA eller ordböcker. I denna uppsats beskriver vi en metod för att bygga en tvåspråkig ordbok med hjälp av explicit kunskap om relationen mellan TD och MSA. Vi presenterar också en automatisk process för att skapa tunisisk Dialect (TD) corpora. | REF skapade ett lexikon baserat på förhållandet mellan MSA och tunisisk arabiska. | 18,531,881 | Mapping Rules for Building a Tunisian Dialect Lexicon and Generating Corpora | {'venue': 'IJCNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,194 |
I detta dokument föreslås en ny indikator på textstrukturen, kallad den lexiska sammanhållningsprofilen (LCP), som placerar segmentsgränser i en text. Ett textsegment är en sammanhängande scen; orden i ett segment a ~e sammankopplade via lexiska sammanhållningsrelationer. LCP registrerar ömsesidig likhet av ord i en sekvens av text. Likheten mellan ord, som representerar deras sammanhållning, beräknas med hjälp av ett semantiskt nätverk. Jämförelse med de textsegment som markeras av ett antal ämnen visar att LCP nära korrelerar med de mänskliga bedömningarna. LCP kan ge värdefull information för att lösa anafora och ellips. | Till exempel föreslår Ref att man beräknar en lexikal sammanhållningsprofil som placerar segmentsgränser i en text. | 1,049 | Text Segmentation Based On Similarity Between Words | {'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,195 |
Vi presenterar en metod för författardiskriminering som bygger på frekvensen av bigrams av syntaktiska etiketter som uppstår vid partiell tolkning av texten. Vi visar att denna metod, ensam eller i kombination med andra klassificeringsegenskaper, uppnår en hög noggrannhet när det gäller diskriminering av Annes och Charlotte Brontës arbete, vilket är mycket svårt att göra med traditionella metoder. Dessutom uppnås höga noggrannheter även på textfragment som är lite mer än 200 ord långa. | REF använde tagg bigrams för att skilja mellan Annes och Charlottes arbete med tre experiment med tagg bigrams. | 13,111,019 | Bigrams of syntactic labels for authorship discrimination of short texts | {'venue': 'Literary and Linguistic Computing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,196 |
Abstract Boundary extraktion av karpal ben bilder är en kritisk funktion av den automatiska ben ålder bedömningssystemet, eftersom kontrasten mellan benig struktur och mjuk vävnad är mycket dålig. I detta papper presenterar vi en kant efter teknik för gränsextraktion i karpal ben bilder och tillämpa den för att bedöma benåldern hos små barn. Vår föreslagna teknik kan upptäcka gränserna för karpalben i röntgenbilder genom att använda informationen från vektorbildmodellen och kantkartan. Analys av karpalbenen kan avslöja viktig information för bedömning av benålder. Fem egenskaper för bedömning av benålder beräknas från gränsextraktionsresultatet för varje karpalben. Alla funktioner tas som ingång i den stödvektor regression (SVR) som bedömer benåldern. Vi jämför SVR med neurala nätet regression (NNR). Vi använder 180 bilder av karpalben från en digital hand atlas för att bedöma benåldern hos små barn från 0 till 6 år. Leave-one-out korsvalidering används för att testa teknikens effektivitet. De kunniga radiologernas åsikter i atlaserna används som grund för bedömningen av benåldern. SVR kan ge mer exakta resultat för bedömning av benålder än NNR. De experimentella resultaten från SVR är mycket nära benålderns bedömning av skickliga radiologer. | Somkantha m.fl. REF upptäcker gränser för karpalben och extraherar 5 funktioner från dem. | 7,018,399 | Bone Age Assessment in Young Children Using Automatic Carpal Bone Feature Extraction and Support Vector Regression | {'venue': 'Journal of Digital Imaging', 'journal': 'Journal of Digital Imaging', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 8,198 |
Nyligen har djupa konvolutionella neurala nätverk (CNN) visat anmärkningsvärda framsteg på en enda bild super-upplösning. I takt med att nätverkens djup och bredd ökar har dock CNN-baserade superupplösningsmetoder ställts inför utmaningarna i form av beräkningskomplexitet och minneskonsumtion i praktiken. För att lösa ovanstående frågor föreslår vi ett djupt men kompakt konvolutionsnätverk för att direkt rekonstruera den högupplösta bilden från den ursprungliga lågupplösta bilden. I allmänhet består den föreslagna modellen av tre delar, som består av extraktionsblock, staplade informationsdestillationsblock respektive återuppbyggnadsblock. Genom att kombinera en förbättringsenhet med en komprimeringsenhet till ett destillationsblock kan de lokala lång- och kortsökta funktionerna extraheras effektivt. Den föreslagna förbättringsenheten blandar ihop två olika typer av funktioner och komprimeringsenheten destillerar mer användbar information för de sekventiella blocken. Dessutom har det föreslagna nätverket fördelen att det genomförs snabbt på grund av det jämförelsevis få antalet filter per skikt och användningen av gruppkonvolution. Experimentella resultat visar att den föreslagna metoden är överlägsen de senaste metoderna, särskilt när det gäller tidsprestanda. Koden finns på https://github.com/Zheng222/IDN-Caffe. Nyligen, på grund av styrkan i djupa konvolutionella neurala nätverk (CNN), många CNN-baserade SR-metoder försöker träna ett djupt nätverk för att få bättre återuppbyggnad prestanda. Kim och Al. föreslå en 20-lagers CNN-modell som kallas VDSR [12], som antar resterande lärande och adaptiv lutningsklippning för att underlätta träningssvårigheter. För att kontrollera modellparametrarna konstruerar författarna ett djupt rekursivt konvolutionsnätverk [13] genom att anta rekursivt skikt. För att minska träningssvårigheterna, Mao et al. Föreslå ett mycket djupt återstående nätverk av kodare (RED) [17], som består av en serie konvolutions- och efterföljande införlivade konvolutionslager för att lära sig end-to-end-kartläggningar från LR-avbildningarna till sanningarna på marken. Tai och al. föreslå | Hui m.fl. I REF föreslogs metoden för informationsdestillation (IDN), som använder långa och korta extraktionsvägar för att maximera mängden extraherad information från den givna bilden med låg upplösning. | 4,342,027 | Fast and Accurate Single Image Super-Resolution via Information Distillation Network | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 8,199 |
Abstrakt. De flesta tidigare utsedda system för bekräftelsesignaturer visar antingen säkerhet i den slumpmässiga orakelmodellen (ROM) eller använder allmänna nollkunskapsbevis för NP-uttalanden (vilket gör dem opraktiska). Genom att något ändra definitionen av utsedda bekräftelsesignaturer, Goldwasser och Waisbard presenterade en metod där Bekräfta och Bekräftade signering protokoll kunde genomföras utan att vädja till allmänna noll-kunskap bevis för NP uttalanden (deras Disavow protokoll fortfarande kräver dem). Den Goldwasser-Waisbard approach kunde vara omedelbar med Cramer-Shoup, GMR, eller Gennaro-Halevi-Rabin signaturer. I detta dokument tillhandahåller vi en alternativ generisk omvandling för att omvandla alla signatursystem till ett särskilt system för bekräftelsesignaturer, utan att lägga till slumpmässiga orakel. Vår nyckelteknik innebär användning av en signatur på ett åtagande och en separat kryptering av den slumpmässiga sträng som används för engagemang. Genom att lägga till detta "lager av indirektion", de underliggande protokollen i våra system medger effektiva instantieringar (dvs. vi kan undvika att vädja till allmänna noll-kunskap bevis för NP uttalanden) och dessutom prestanda av dessa protokoll är inte knuten till valet av underliggande signatursystem. Vi illustrerar detta med hjälp av CamenischShoup variation på Pailliers kryptosystem och Pedersen åtaganden. Bekräfta protokollet i vårt resulterande schema kräver 10 modulära exponentiationer (jämfört med 320 för Goldwasser-Waisbard) och vårt disavow protokoll kräver 41 modulära exponentiationer (jämfört med att använda en allmän noll-kunskap bevis för Goldwasser-Waisbard). Tidigare system använder kryptering av en signatur paradigm, och därmed stöter på problem när man försöker genomföra bekräfta och frångå protokoll effektivt. | Gentry, Molnar och Ramzan presenterade en generisk omvandling för att omvandla alla säkra signatursystem till DCS-system (GMR-system) utan slumpmässiga orakel eller generiska nollkunskapsbevis REF. | 11,809,690 | Efficient Designated Confirmer Signatures Without Random Oracles or General Zero-Knowledge Proofs | {'venue': 'ASIACRYPT', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,200 |
Bakgrund: Hematopoies är en komplex process som involverar olika celltyper och återkopplingsmekanismer medierade av cytokiner. Denna komplexitet stimulerade olika modeller med olika räckvidder och tillämpningar. En kombination av kompletterande modeller lovar att ge ömsesidig bekräftelse och förklara ett bredare spektrum av scenarier. Här föreslår vi en kombination av en vanlig differentialekvation (ODE) modell av mänskliga granulopoies och en agentbaserad modell (ABM) av hematopoietisk stamcellsorganisation (HSC). Den första beskriver dynamiken i benmärgens cellstadier och cirkulerande celler under olika perturbationer såsom G-CSF-behandling eller kemoterapi. I motsats till ODE-modellen som beskriver cellnummer fokuserar vår ABM på organiseringen av enskilda celler i stampopulationen. Vi kombinerade de två modellerna genom att ersätta HSC-facket i ODE-modellen med en skillnadsekvationsformulering av ABM. I denna hybridmodell behölls regleringsmekanismerna och parametrarna för de ursprungliga modellerna oförändrade med undantag för några specifika förbättringar: (i) Effekten av kemoterapi begränsades till att sprida HSC och (ii) HSC-regleringen i ODE-modellen ersattes av den inneboende regleringen av ABM. Modellsimuleringar av blödning, kronisk bestrålning och stamcellstransplantation visade att dynamiken i hybrid- och ODE-modellen skiljer sig markant i scenarier med stamcellsskador. Trots dessa skillnader i svar på stamcellsskador förklarar båda modellerna kliniska data för leukocytdynamik under fyra kemoterapiregimer. Slutsatser: ABM- och ODE-modellen visade sig vara kompatibel och kombinerades utan att ändra strukturen på båda modellerna. Den nya hybridmodellen introducerar modellförbättringar genom att överväga det proliferativa tillståndet hos stamceller och möjliggöra en cellcykelberoende effekt av kemoterapi. Vi har visat att den kan förklara och förutsäga granulopoietisk dynamik för en stor variation av scenarier såsom bestrålning, benmärgstransplantation, kemoterapi och tillväxtfaktorer. Den lovar därför att fungera som ett värdefullt verktyg för studier i ett bredare spektrum av kliniska tillämpningar, särskilt när det gäller aktivering och spridning av stamceller. | Krinner m.fl. REF kopplade ihop en agentbaserad modell av hematopoetiska stamceller med en ODE-modell av granulopoiesis och implementerade denna flerskaliga modell i Matlab. | 15,338,151 | Merging concepts - coupling an agent-based model of hematopoietic stem cells with an ODE model of granulopoiesis | {'venue': 'BMC Systems Biology', 'journal': 'BMC Systems Biology', 'mag_field_of_study': ['Biology', 'Medicine', 'Computer Science']} | 8,201 |
Visuell undersökning av rumsliga data är starkt beroende av rumsliga aggregeringsfrågor som skär och sammanfattar data över olika regioner. Dessa frågor omfattar beräkningsintensiva punkt-inpolygon tester som associerar data pekar till polygonala regioner, utmanar lyhördheten av visualiseringsverktyg. Denna utmaning förvärras av mängden data, vilket kräver att ett stort antal sådana tester ska utföras. Traditionella preaggregeringsmetoder är olämpliga i detta sammanhang eftersom de fastställer frågebegränsningarna och endast stöder rektangulära regioner. Å andra sidan definieras frågebegränsningar interaktivt i visuella analyssystem, och polygoner kan vara av godtyckliga former. I detta papper konverterar vi en rumslig aggregeringsfråga till en uppsättning ritningsåtgärder på en duk och utnyttja rendering pipeline av grafik hårdvara (GPU) för att möjliggöra interaktiva svarstider. Vår teknik avlöser noggrannhet för svarstid genom att justera duken upplösning, och kan även ge exakta resultat när de kombineras med en polygon index. Vi utvärderar vår teknik på två stora verkliga datamängder, som uppvisar överlägsen prestanda jämfört med indexbaserade metoder. | Zacharatou m.fl. I REF föreslås att man utnyttjar GPU:s konverteringsrörledning för att tillhandahålla interaktiva svarstider över stora datamängder. | 3,313,761 | GPU Rasterization for Real-Time Spatial Aggregation over Arbitrary Polygons | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 8,202 |
Abstract-This paper föreslår en navigationsalgoritm som ger en låg-latent lösning samtidigt som man uppskattar det fullständiga icke-linjära navigeringstillståndet. Vårt tillvägagångssätt använder Sliding-Window Factor Graphs, som utökar befintliga inkrementella utjämningsmetoder för att fungera på delmängd av mätningar och tillstånd som finns inne i ett skjuttid fönster. Vi delar upp uppskattningen i en snabb kortsiktig smidigare, en långsammare men helt global smidigare, och en gemensam karta över 3D landmärken. En ny tre-stegs visuell funktion modell presenteras som drar nytta av båda jämnare för att optimera 3D landmärke karta, samtidigt minimera den beräkning som krävs för bearbetning av spårade funktioner på kort sikt smidigare. Denna trestegsmodell är formulerad utifrån löptiden för uppskattningen av 3D-platsen för det underliggande landmärket i kartan. Långväga associationer används som globala mätningar från mogna landmärken på kort sikt smidigare och slinga stängning begränsningar på lång sikt smidigare. Experimentella resultat visar att vårt tillvägagångssätt ger mycket exakta lösningar på storskaliga verkliga datamängder med hjälp av flera sensorer i GPS-avvisade inställningar. | Liknande resultat uppnås när man jämför med den kortsiktiga smidigare i REF. | 1,055,775 | Robust vision-aided navigation using Sliding-Window Factor graphs | {'venue': '2013 IEEE International Conference on Robotics and Automation', 'journal': '2013 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Computer Science']} | 8,203 |
Ansikts- och ögondetekteringsalgoritmer används i många olika tillämpningar. Tyvärr har det inte gjorts någon kvantitativ jämförelse av hur dessa detektorer utför under svåra omständigheter. Vi skapade en datauppsättning med låga ljus- och långdistansbilder som har några av de problem som ansikts- och ögondetektorer stöter på för att lösa verkliga världsproblem. Datasetet vi skapade består av rebildade bilder (fotohuvud) och halvsyntetiska huvuden som lagras under varierande förhållanden av lågt ljus, atmosfärisk oskärpa och avstånd på 3m, 50m, 80m och 200m. Detta papper analyserar detektion och lokalisering per formance av de deltagande ansikte och ögon algoritmer jämfört med Viola Jones detektor och fyra ledande kom mercial ansikte detektorer. Prestanda kännetecknas un der dif fenta förhållanden och parameteriseras av per-bild ljusstyrka och kontrast. I lokaliseringsnoggrannheten för ögonen, de grupper / företag som fokuserar på långdistans face detection outperform ledande kommersiella applikationer. Under de senaste årtiondena har ansikts-/ögondetektering förändrats från att enbart vara ett ämne för forskning till att vara vanligt förekommande i billiga point-and-shoot-kameror. Även om detta kan få en att tro att ansiktsdetektering är ett löst problem, är det bara löst för enkla inställningar. Detektion/lokalisering i svåra miljöer är fortfarande ett aktivt forskningsområde. De flesta forskare använder kontrollerade datamängder som FERET [14] och PIE [lI], som fångas under kon trollerad belysning och oskärpa förhållanden. Medan dessa datauppsättningar är användbara i skapandet och testningen av detektorer, ger de föga indikation på hur dessa detektorer kommer att fungera i diffi kult eller okontrollerade omständigheter. 978-1-4577-1359-0/11/$26.00 ©2011 IEEE I pågående projekt på UCCS och Securics som behandlar långdistans- och lågljusbiometri fann vi att det fanns betydande möjligheter till förbättring i problemen med ansiktsdetektering och lokalisering. Ansiktsdetektering är bara den första fasen av en igenkänning pipeline och de flesta igenkänningsalgoritmer måste lokalisera funktioner, den vanligaste vara ögon. Hittills har det inte funnits någon kvantitativ jämförelse av hur väl ögondetektorer fungerar under svåra förhållanden. Detta arbete skapade en datauppsättning av lågljus- och långdistansbilder som har några av de problem ansiktsdetektorer stöter på under svåra omständigheter. Genom att koppla samman samhället på detta sätt har vi hjälpt till att identifera toppmoderna algoritmer som lämpar sig för att upptäcka ansikte och ögon i verkligheten och lokalisera dem och vi visar riktningar där framtida arbete behövs. I det här dokumentet diskuteras tolv algoritmer. Deltagare inkluderar Correlation-based Eye Detection Algoritm (CBED), en inlämning från DEALTE, Multi-Block Modified Census Transform Algoritm (MBMCT), Min imum Output Summa av Squared Error Algoritm (MOSSE), Robust Score Fusion-based Face Detection Algoritm (RSFFD), SIANI, och ett bidrag från UCSD MPLab. Dessutom jämför vi fyra ledande kommersiella algoritmer tillsammans med Viola Jones implementering från OpenCV 2.1. I Ta ble 1 listas algoritmer i alfabetisk ordning med deltagare i toppavsnittet och våra egna bidrag i botten. Även om det finns många verktyg, datauppsättningar och utvärderingsmått för utvärdering av ansiktsigenkännings- och identifieringssystem, [14, 1] är dessa inte utformade för att utvärdera enkla åtgärder för att upptäcka ansikte/ögon/localization. På det hela taget har det funnits ett stort fokus på svår upptäckt/lokalisering, trots det ohyggliga faktum att ett ansikte som inte upptäcks är ett ansikte som inte erkännsflera papper visar att ögon lokalisering har en betydande inverkan på igenkänningsgraden [10, 7]. Konferensen om intelligent systemdesign och tillämpningar [8] genomförde en ansiktsdetekteringstävling med två tävlande 2010. Deras datauppsättningar inkluderade en lagsamling med 845 bilder, kontrollerade digitalkamerainspelningar, okontrollerade inspelningar och en "liten ansiktsuppsättning" avsedd att härma bilder från övervakningskameror. Alla utom muggbildsdatabasen hade i allmänhet bra kvalitet. I sina slutsatser säger de: "Den största förbättringsmöjligheten ligger uppenbarligen i övervakningsområdet med små ansikten." Det har funnits några bra papper som utvärderat face dectors. Till exempel [35] använder en delmängd av data från LFW, och även anses elliptiska modeller av den idealiska ansikte lo katjon. LFW är dock en datauppsättning som samlas in med hjälp av automatisk detektering av ansiktet med förfining. På liknande sätt [3] åldras delar av befintliga data och använder mycket av sin diskussion om vad som är en idealisk ansiktsmodell. Datan i dessa presenteras som något utmanande men fortfarande de flesta testade detektorer gjorde bra ifrån sig. Vi noterar dock att utvärderingen av ansiktsdetektorer mot en idealisk modell inte är särskilt lämplig, och i detta papper utvärderar vi detektorer med en mycket mer accepterande modell av en detektion - vi anser att en detektion är korrekt om den rapporterade modellen överlappar den verkliga sanningen. Många beskrivningar av ansiktsdetektionsalgoritmer inkluderar en liten utvärdering av deras prestanda, men de evaluerar ofta endast effekterna av olika förändringar inom den algoritmen. [37, 28] Jämförelser med andra görs vanligtvis i samband med att bevisa att den diskuterade algoritmen är bättre än den senaste tekniken. På grund av de inkonsekventa metoder som används är det ofta omöjligt att jämföra resultaten av denna typ av utvärderingar mellan olika dokument. Resultaten av denna tävling visar att det finns utrymme för förbättringar på större, suddiga och mörka ansikten, och särskilt för mindre ansikten. Vi planerade att skapa en datauppsättning som skulle belysa några av de problem som presenteras av något realistiska men diffi kult upptäckt / lokalisering scenarier. För att göra detta skapade vi fyra deluppsättningar, som var och en presenterar ett annat scenario för att isolera hur en detektor fungerar på specifika chal lenges. Vårt namngivningsschema följer i allmänhet scenariobredden, där scenariot är fångstförhållandena eller avståndet och bredden är den ungefärliga bredden på ytan i pixlar. Observera att enbart bredd är en mycket svag proxy för upplösning och många av bilderna har betydande suddighet inom vilket effektiv upplösning ibland är mycket lägre. Experimenten använder fotohuvudmetoden för semisyntetiska data som diskuteras i [4, 5] vilket ger kontroll över förhållandena och inkluderar många ansikten och poser. De högkvalitativa bilderna, deluppsättningen 80m-500px, erhölls genom att avbilda semisyntetiska huvudmodeller som genererades från PIE. De visas på en projektor och avbildas på 80 meters inomhus med hjälp av en Canon 5D mark II med en Sigma EX 800Imn lins; se figur lao Denna kameralinskombination gav en kontrollerad mitt-distans dataset med min imal atmosfär och ger en användbar baslinje för långdistans sub-set. För den andra deluppsättningen, 200m-300px, avbildade vi de semisyntetiska PIE-modellerna, denna gång från 200 meter utanför; se figur lc. Vi använde en Canon 5D mark II med en Sigma EX 800mm lins med en extra Canon EFF 2x II Extender, vilket resulterade i en effektiv 1600mm lins. De tillfångatagna ansiktena drabbades av varierande grad av atmosfärisk oskärpa. För den tredje deluppsättningen ombildade vi FERET från 200 metrer; se figur ld för ett zoomat prov. Vi använde en Canon 5D mark II med en Sigma EX 800mm lins. De resulterande ansiktena var ungefär 50 pixlar bred och drabbades vid Mospheric suddig och förlust av kontrast. Vi valde en delmängd av dessa bilder, först filtrerade så att vår konfiguration av Vi ola Jones korrekt upptäckte ansiktet i 40% av bilderna. Vi filtrerade vidare genom att handplocka endast bilder som innehöll synliga detaljer runt ögonen, näsan och munnen. För den slutliga deluppsättningen, fångade vi visade bilder (inte modeller) från PIE[lI] på nära håll, cirka 3m, i en låg ljus miljö, med ett exempel i Figur lb. Vi fångade denna uppsättning med en Salvador (nu FUR) EMCCD-kamera era. Medan Salvador kan fungera under extremt låga ljusförhållanden, ger det en låg upplösning och hög bullerålder. Buller och låg upplösning skapar utmanande ansikten som simulerar långdistans förhållanden med låg ljusnivå. För att utvärdera algoritmprestanda när vi fick icke-ansiktsbilder inkluderade vi ett proportionellt antal bilder som inte innehöll ansikten. När vi utvärderade resultatet, ansåg vi också att falska positiva och sanna avslag av bilder i denna non-face dataset. De "non-faces" var nästan alla natural scener som erhållits från webben - de flesta var mycket lätt att skilja från ansikten. Med tanke på dessa dataset valde vi slumpmässigt 50 bilder av varje delmängd för att skapa 4 märkta träningsdataset. I tågsätten ingick också grundsanningen för rutan för att avgränsa ansiktet och ögonkoordinaterna. Syftet med denna uppsättning var inte att tillhandahålla en datauppsättning för att träna nya algoritmer; 50 bilder är alldeles för få för det. Istället tillät det deltagarna att inter nally validera att deras algoritm kunde bearbeta bilderna och protokollet med några rimliga parameterval. För testning valde vi slumpmässigt ut 200 bilder av varje delmängd för att skapa de fyra testuppsättningarna. Ansiktets placering i bilden randomiserades. Ett lika stort antal icke-ansiktsbilder lades till, och ordningen på bilderna randomiserades sedan. | Till exempel Parris et al. REF organiserade en "Face and Eye Detection on Hard Dataset" utmaning på IJCB 2011. | 9,417,392 | Face and eye detection on hard datasets | {'venue': '2011 International Joint Conference on Biometrics (IJCB)', 'journal': '2011 International Joint Conference on Biometrics (IJCB)', 'mag_field_of_study': ['Economics', 'Computer Science']} | 8,204 |
Detta dokument presenterar ett transduktivt tillvägagångssätt för att lära sig rankning funktioner för extraherande multi-dokument summering. I det första skedet identifieras ämnesteman i en dokumentsamling, som bidrar till att identifiera två uppsättningar relevanta och irrelevanta meningar i en fråga. Det sedan iterativt tränar en rankning funktion över dessa två uppsättningar meningar genom att optimera en rankning förlust och montera en tidigare modell byggd på nyckelord. Utmatningen av funktionen används för att hitta ytterligare relevanta och irrelevanta meningar. Denna process upprepas tills ett önskat stoppkriterium är uppfyllt. | Ett transduktivt tillvägagångssätt REF för extraherande multidokumentsammanfattning identifierar ämnesteman i en dokumentsamling, som hjälper till att identifiera två uppsättningar relevanta och irrelevanta meningar i en fråga. | 5,395,260 | Incorporating prior knowledge into a transductive ranking algorithm for multi-document summarization | {'venue': 'SIGIR', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,205 |
Abstract-Software system dokumentation uttrycks nästan alltid informellt i naturligt språk och fri text. Exempel är kravspecifikationer, konstruktionsdokument, manuella sidor, systemutvecklingstidskrifter, felloggar och tillhörande underhållsrapporter. Vi föreslår en metod baserad på informationssökning för att återställa spårbarhetslänkar mellan källkod och dokument med fritext. En förutsättning för vårt arbete är att programmerare använder meningsfulla namn för programobjekt, såsom funktioner, variabler, typer, klasser och metoder. Vi tror att den applikationsdomänkunskap som programmerare bearbetar när de skriver koden ofta fångas upp av mnemonikerna för identifierare; därför kan analysen av dessa mnemonik hjälpa till att koppla samman högnivåkoncept med programkoncept och vice versa. Vi tillämpar både en probabilistisk och en modell för insamling av information om vektorer i två fallstudier för att spåra C++ källkod till manuella sidor och Javakod till funktionskrav. Vi jämför resultaten av tillämpningen av de två modellerna, diskuterar fördelarna och begränsningarna och beskriver anvisningar för förbättringar. | Det finns också "metod för att återställa spårbarhetslänkar mellan källkod och dokumentation med fritext" REF med hjälp av informationssökning som tillämpar både IR-metoden, nämligen som probabilistisk och vektorrymd. | 1,270,085 | Recovering traceability links between code and documentation | {'venue': 'IEEE Trans. Softw. Eng', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,206 |
I den här artikeln utforskar vi de grundläggande gränserna för sensornätverkens livstid som alla algoritmer kan uppnå. Specifikt, under antagandena att noderna är utplacerade som en Poisson punkt process med densitet λ i en fyrkantig region med sidlängd och varje sensor kan täcka en enhet-area disk, vi först härleda det nödvändiga och tillräckliga tillståndet av noden densitet för att upprätthålla fullständig k-täckning med sannolikhet närmar sig 1. Med detta resultat, får vi att om λ = log 2 + (k + 2) log log log 2 + c( ), c( ) → −∞, som → +∞, sensorn nätverkets livslängd (för att upprätthålla fullständig täckning) är övre begränsas av kT med sannolikhet närmar sig 1 som → +∞, där T är livslängden för varje sensor. För det andra, vi härleder, med tanke på en fast nodtäthet i en ändlig (men ganska stor) region, de övre gränserna för livstid när endast α-portion av regionen krävs för att täckas när som helst. Vi utför också simuleringar för att validera de härledda resultaten. Simuleringsresultaten visar att de härledda övre gränserna inte bara gäller nätverk i stora områden utan även för nät i små områden. | För tidigare studier visar arbetet i REF den övre gränsen för nätverkets livslängd när endast en överföring av hela området omfattas. | 15,284,954 | On deriving the upper bound of α-lifetime for large sensor networks | {'venue': "MobiHoc '04", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 8,207 |
Att hitta en gemensam time slot för en grupp händelse är en daglig conundrum och illustrerar viktiga funktioner i grupp beslutsfattande. Det är ett komplext samspel mellan individuella incitament och gruppdynamik. En deltagare vill att sista gången ska vara bekväm för henne, men hon förväntas också vara samarbetsvillig mot andra människors preferenser. Vi kombinerar storskalig dataanalys med teoretiska modeller från röstningslitteraturen för att undersöka strategiska beteenden i händelseplanering. Vi analyserar alla Doodle val som skapats i USA från juli september 2011 (över 340 000 val), bestående av både dolda val (en användare kan inte se andra svar) och öppna val (en användare kan se alla tidigare svar). Genom att analysera skillnaderna i beteende i dolda och öppna opinionsundersökningar får vi unika insikter i strategier som människor tillämpar i en naturlig beslutsmiljö. Svarspersoner i öppna opinionsundersökningar är mer benägna att godkänna slots som är mycket populära eller mycket impopulära, men inte mellanliggande slots. Vi visar att detta beteende är oförenligt med modeller som har föreslagits i röstningslitteraturen, och föreslår en ny modell som bygger på att kombinera personliga och sociala verktyg för att förklara uppgifterna. | En studie visade att respondenterna listar en bredare tillgänglighet i öppna opinionsundersökningar än i dolda opinionsundersökningar REF. | 2,356,083 | Strategic Voting Behavior in Doodle Polls | {'venue': "CSCW '15", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,208 |
I många dataanalysuppgifter konfronteras man ofta med mycket högdimensionella data. Feature urval tekniker är utformade för att hitta den relevanta funktionen delmängd av de ursprungliga funktioner som kan underlätta klusterbildning, klassificering och hämtning. I detta dokument tar vi hänsyn till problemet med urval av funktioner i ett oövervakat inlärningsscenario, vilket är särskilt svårt på grund av avsaknaden av klassetiketter som skulle vägleda sökandet efter relevant information. Funktionsvalet problem är i huvudsak en kombinatorisk optimering problem som är beräknings dyrt. Traditionella oövervakade funktioner urvalsmetoder ta itu med detta problem genom att välja de högst rankade funktioner baserat på vissa poäng som beräknas självständigt för varje funktion. Dessa metoder försummar den möjliga korrelationen mellan olika funktioner och kan därför inte producera en optimal funktion delmängd. Inspirerad av den senaste utvecklingen på flerfaldigt lärande och L1-regulariserade modeller för delmängdsval föreslår vi i detta dokument ett nytt tillvägagångssätt, kallat Multi-Cluster Feature Selection (MCFS), för oövervakat funktionsval. Specifikt väljer vi dessa funktioner så att multi-cluster strukturen av data kan bäst bevaras. Motsvarande optimeringsproblem kan lösas effektivt eftersom det endast handlar om ett glest eigen-problem och ett L1-regulariserat minsta kvadratproblem. Omfattande experimentella resultat över olika verkliga datauppsättningar har visat överlägsenheten av den föreslagna algoritmen. | Den använder en närmaste granne graf för att modellera den lokala geometriska strukturen av data och väljer de funktioner som är smidigast på grenen graf REF. | 15,841,509 | Unsupervised feature selection for multi-cluster data | {'venue': "KDD '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,209 |
I detta dokument har vi genomfört en litteraturgenomgång om den senaste tidens utveckling och publikationer rörande problemet med fordonsrouting och dess varianter, nämligen fordonsrouting problem med tidsfönster (VRPTW) och kapaciated vehicle routing problem (CVRP) och även deras varianter. VRP klassificeras som ett svårt NP-problem. Därför kan användningen av exakta optimeringsmetoder vara svårt att lösa dessa problem i acceptabla CPU-tider, när problemet involverar verkliga datamängder som är mycket stora. Fordonsrouting problemet kommer under kombinatoriska problem. För att få lösningar för att bestämma vägar som är realistiska och mycket nära den optimala lösningen använder vi därför heuristik och meta-heuristik. I denna artikel diskuterar vi de olika exakta metoderna och de heuristiker och metaheuristik som används för att lösa VRP och dess varianter. | VRP klassificeras som en NP-hård problem REF och är en av de mest studerade ämnena i verksamhetsforskning. | 16,319,937 | A Survey on the Vehicle Routing Problem and Its Variants | {'venue': None, 'journal': 'Intelligent Information Management', 'mag_field_of_study': ['Computer Science']} | 8,210 |
Under de senaste 50 y, har det skett en nedgång i genomsnittlig sömn varaktighet och kvalitet, med negativa konsekvenser för allmän hälsa. En representativ undersökning av 1 508 amerikanska vuxna visade nyligen att 90 procent av amerikanerna använde någon typ av elektronik åtminstone några nätter i veckan inom 1 timme före sänggåendet. Att få fram bevis från länder runt om i världen visar att sådan teknikanvändning har en negativ inverkan på sömnen. Denna negativa inverkan på sömnen kan bero på den korta våglängdsberikat ljus som avges av dessa elektroniska apparater, med tanke på att artificiellt ljusexponering har visats experimentellt att producera varnande effekter, undertrycka melatonin och fasskifta den biologiska klockan. Några rapporter har visat att dessa enheter dämpar melatoninnivåer, men föga är känt om effekterna på dygnsfasen eller följande sömnepisoder, vilket avslöjar en betydande lucka i vår kunskap om hur denna allt populärare teknik påverkar sömnen. Här jämför vi de biologiska effekterna av att läsa en elektronisk bok på en ljusavgivande apparat (LE-eBook) med att läsa en tryckt bok timmarna före sänggåendet. Deltagarna som läste en LE-eBook tog längre tid att somna och hade minskat kvällens sömnighet, minskat melatoninsekretionen, senare timing av sin dygnsklocka, och minskat nästa morgon vakenhet än när de läste en tryckt bok. Dessa resultat visar att kvällen exponering för en LE-eBook fas-fördröjer dygnsklockan, akut dämpar melatonin, och har viktiga konsekvenser för förståelsen av effekterna av sådan teknik på sömn, prestanda, hälsa och säkerhet. Sleep och chronobiology, fas-shifting på digitala medier, elektronik T han använder elektroniska enheter för läsning, kommunikation och underhållning har kraftigt ökat under de senaste åren. Större portabilitet, bekvämlighet och enkel tillgång till läsmaterial i elektronisk form ökar populariteten för dessa enheter. Användningen av ljusavgivande anordningar omedelbart före sänggåendet är ett bekymmer eftersom ljus är den mest potenta miljösignalen som påverkar den mänskliga dygnsklockan och därför kan spela en roll för att upprätthålla sömnbristen (1). Cirkadian-timing systemet synkroniserar många interna fysiologiska och biokemiska processer, inklusive den dagliga rytmen av sömnbenägenhet (2) till yttre miljö tid. För optimal sömntid och -kvalitet måste tidpunkten för sömnepisoden anpassas på lämpligt sätt till tidpunkten för dygnsklockan. Hos människor dämpar exponering för ljus på kvällen och i början av natten, även vid låg intensitet, frisättningen av det sömnfaciliterande hormonet melatonin (3-5) och skiftar dygnsklockan till en senare tid (3, 6), vilket båda gör det svårare att somna på natten. Ljusexponering under den biologiska kvällen/natten ökar också akut vakenhet (7, 8), men inte mycket är känt om dess påverkan på vakenhet följande dag. Här presenterar vi resultat från en randomiserad studie som jämför effekterna av att läsa före sänggåendet med hjälp av en ljusavgivande eReader (LE-eBook) med att läsa en tryckt bok med reflekterat ljus. Vi undersökte cirkadian timing och undertrycka av melatonin, polysomnographic (PSG) inspelningar av sömn, och subjektiva och objektiva mått av sömnighet både på kvällen under läsning och följande morgon. Tolv friska unga vuxna (medelvärde ± SD: 24,92 ± 2,87 y; sex kvinnor) avslutade ett 14-d slutenvårdsprotokoll. Den randomiserade crossover designen (visas i bild). 1 ) bestod av två villkor: (i) läsa en LE-eBook i annars mycket dim room light för 4 h före sänggåendet för fem på varandra följande kvällar, och (ii) läsa en tryckt bok i samma mycket dim room light för 4 h före sänggåendet för fem på varandra följande kvällar. Alla deltagare avslutade båda läsförhållandena men randomiserades till beställningen. Varje timme samlades blodprover in under delar av Användningen av ljusavgivande elektroniska apparater för läsning, kommunikation och underhållning har ökat kraftigt på senare tid. Vi fann att användningen av dessa enheter före sänggåendet förlänger den tid det tar att somna, fördröjer dygnsklockan, dämpar nivåerna av det sömnbefrämjande hormonet melatonin, minskar mängden och fördröjer tidpunkten för REM-sömn och minskar vakenheten följande morgon. Användning av ljusavgivande anordningar omedelbart före sänggåendet ökar också vakenheten vid den tidpunkten, vilket kan leda till att användaren försenar sänggåendet hemma. Sammantaget fann vi att användningen av bärbara ljusavgivande anordningar omedelbart före sänggåendet har biologiska effekter som kan upprätthålla sömnbrist och störa dygnsrytmer, som båda kan ha negativa effekter på prestanda, hälsa och säkerhet. Czeisler är ansvarig för en begåvad professur som tillhandahålls Harvard University av Cephalon, Inc.. och innehar ett antal processpatent inom området sömn / dygnsrytmer (t.ex., foto-rening av den mänskliga Circadian pacemaker). Sedan 1985 har dr Czeisler också tjänat som expertvittne i olika rättsfall som rör sömn och/eller dygnsrytmer, inklusive frågor som rör Bombardier, Inc.; Delta Airlines; FedEx; Greyhound; Michael Jacksons mor och barn; Purdue Pharma, L.P.; United Parcel Service och Amerikas förenta stater. | REF undersökte påverkan av att använda ljusavgivande e-läsare på natten istället för att läsa tryckta böcker. | 12,029,145 | Evening use of light-emitting eReaders negatively affects sleep, circadian timing, and next-morning alertness | {'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Medicine']} | 8,211 |
Sammanfattning I detta dokument introducerar vi LeGO (Learning for Global Optimization) tillvägagångssätt för global optimering där maskininlärning används för att förutsäga resultatet av en beräknings dyrt global optimeringskörning, baserad på en lämplig utbildning utförd av standardkörningar med samma globala optimeringsmetod. Vi föreslår att använda en Support Vector Machine (även om olika verktyg för maskininlärning kan användas) för att lära sig förhållandet mellan utgångspunkten för en algoritm och slutresultatet (som vanligtvis är relaterad till funktionsvärdet vid den punkt som returneras av förfarandet). Numeriska experiment som utförs både på klassiska testfunktioner och på svåra rymdbana planeringsproblem visar att det föreslagna tillvägagångssättet kan vara mycket effektivt för att identifiera bra utgångspunkter för global optimering. | I det senaste arbetet användes REF maskininlärning för att bygga relationen mellan utgångspunkten för en optimeringsalgoritm och det objektiva värdet av slutresultatet. | 15,797,723 | Machine Learning for Global Optimization | {'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,212 |
Bakgrund: Hypertoni och andra icke smittsamma sjukdomar är för närvarande ansvariga för minst 20 % av alla dödsfall i Nigeria, och utgör upp till 60 % av de patienter som tas in på de medicinska vårdavdelningarna på de flesta tertiära sjukhus i Nigeria. Ändå har behandlingsresultaten för sjukdomarna förblivit mycket dåliga, vilket har lett till krav på bättre patientutbildning. Det har dock fastställts att effektiviteten i patientutbildning är kopplad till läkarens hälsosamma vanor. Denna studie genomfördes för att ta reda på förekomsten av hypertoni och dess modifierbara riskfaktorer bland föreläsarna vid University of Port Harcourt Medical School. Material och metoder: En beskrivande tvärsnittsstudie har använts, med de data som samlats in med hjälp av en modifierad form av WHO STEPS-instrumentet som består av en enkätkomponent och mätning av kroppsmasseindex (BMI) och blodtryck. Frågeformuläret användes för att samla in uppgifter om de sociodemografiska egenskaperna hos respondenterna, tobaksanvändning, alkoholkonsumtion, typ av kost samt mängd och typ av fysisk aktivitet. Resultat: Totalt deltog 75 föreläsare i studien, av totalt 109. De var mestadels män (65,33 %), gifta (88,3 %) och hade en medelålder på 46,06 ± 9,62 år. Prevalensen av hypertoni var 21,33 %; av dessa var 12 (75,00 %) redan medvetna om sin status och stod på lämplig behandling. Endast 13 (17,33 %) av föreläsarna hade normal vikt, 45 (60,00 %) var överviktiga, medan 17 (22,67 %) var överviktiga. Endast 2 (2,67 %) röker för närvarande, medan de flesta (94,67 %) drack mindre än tre standardenheter alkohol per dag, främst vid sociala tillfällen. Förekomsten av högt blodtryck bland föreläsarna i den medicinska skolan var lägre än i den allmänna befolkningen, främst på grund av deras bättre hälsosökande beteende och hälsosam livsstil. För mer än 30 år sedan hade Omran i en serie artiklar föreslagit den epidemiologiska övergångsteorin. [1] I denna teori förutsade han att smittsamma sjukdomar skulle fördrivas av icke smittsamma sjukdomar, vilket är de främsta orsakerna till morbiditet och dödlighet, allteftersom ett samhälle eller land utvecklas. Denna teori har sedan dess bekräftats i de flesta länder i världen, däribland Nigeria. [2][3][4][5][6] [7] Flera samhällsundersökningar visar att förekomsten av hypertoni i Nigeria har ökat från 11,2 % på 1990-talet [3] till 27,9 % 2010 i ett landsbygdssamhälle i Nigerdeltat [4] och 22,6 % 2009 bland ett kristet förortssamhälle i sydvästra Nigeria. [5] Icke smittsamma sjukdomar är också för närvarande Ordinioha: Förekomsten av högt blodtryck och dess modifierbara riskfaktorer bland läkare som ansvarar för minst 20 % av alla dödsfall i Nigeria [6] och utgör upp till 60 % av de patienter som tas in på de medicinska vårdavdelningarna på de flesta tertiära sjukhus i Nigeria. [7] Trots dessa ökningar har behandlingsresultatet för de icke smittsamma sjukdomarna, även på de bästa tertiära sjukhusen i Nigeria, förblivit mycket dåligt. Till exempel kunde en god hypertonikontroll endast uppnås för endast 24,2 % av patienterna som sågs på en klinik i Port Harcourt; [8] så mycket som 25,3 % av alla patienter som togs in på den medicinska avdelningen på ett sjukhus i Kano dör [9], medan upp till 45 % av patienterna som togs in för hypertensionsrelaterade sjukdomar i Enug är benägna att dö. [10] Denna dystra statistik kräver brådskande åtgärder, särskilt som WHO har förutsett en ytterligare ökning med 24 % av förekomsten av icke smittsamma sjukdomar i Nigeria under de kommande tio åren. [6] Det dåliga behandlingsresultatet för icke smittsamma sjukdomar erkänns dock globalt och har fått WHO att föreslå ett paradigmskifte i hälso- och sjukvården, till förmån för förebyggande och mer proaktiv hälso- och sjukvård, genom sin innovativa vård för kroniska tillstånd (ICCC) ram. [11] Denna ram krävde utbildning av patienter och andra samhällsmedborgare, särskilt eftersom riskfaktorerna för de icke smittsamma sjukdomarna ofta är livsstilsrelaterade. Patientutbildning av läkare och andra medlemmar av hälsogruppen utgör en viktig del av WHO:s rekommendation. Till exempel kan de korta råd och råd som ges av en läkare eller sjuksköterska, som en del av den rutinmässiga primärvården, avsevärt minska mängden alkohol som konsumeras av högriskdrickare, [12] medan en studie i Lagos kunde uppnå en 64 %-ig ökning av hypertensionskontrollen genom rådgivning av marknadskvinnor. [13] Effektiviteten i patientutbildningsinsatserna kan dock påverkas negativt av den behandlande läkarens livsstil. [14][15][16] Studier i USA visar att läkare som har sunda personliga vanor är mer benägna att diskutera relaterade förebyggande hälsobeteenden med sina patienter; [14,16] medan patienter är mer benägna att tro och motiveras av det budskap som ges av en läkare, om läkaren avslöjar sina egna personliga hälsovanor. [15] Denna studie genomfördes för att fastställa förekomsten av hypertoni och dess modifierbara riskfaktorer bland föreläsarna vid universitetet i Port Harcourt Medical School. Föreläsare i en medicinsk skola valdes inte bara för att de är ledare för hälsoteamet i sina respektive specialiteter, utan också för att de är lärare i nästa generations läkare. En undersökning hade visat att den vikt som läggs vid medicinsk utbildning ofta påverkar en läkares livsstil och framtida praktik. [14] Resultaten av denna undersökning skulle därför inte bara ge information om effektiviteten i den nuvarande hanteringen av kroniska sjukdomar i Nigeria, utan kan också bidra till att förutsäga den kraft med vilken framtida kontrollinsatser skulle genomföras. En beskrivande tvärsnittsstudiedesign användes, medan de medicinskt kvalificerade föreläsarna vid University of Port Harcourt medicinska skola, som också innehar posten som medicinska konsulter vid University of Port Harcourt Teaching Hospital, användes som studiepopulation. Båda institutionerna ägs av den federala regeringen i Nigeria, men är främst placerade för att ta hand om utbildnings- och medicinska behov hos folket i Rivers State, en av staterna i Nigerdeltat-regionen i Nigeria. Studien var utformad för att upptäcka en 5% skillnad i prevalens av hypertoni, med ett alfafel på 5%, ett godtagbart betafel på 20%, och en statistisk effekt på 80%, medan den uppskattade prevalensen av hypertoni i studiepopulationen var 27,9 %. [4] Med hjälp av den vanliga formeln för bestämning av provstorlek för undersökning av proportioner i populationer på mindre än 10 000, fastställdes den minsta provstorlek som krävs till 75. Försökspersonerna valdes slumpmässigt ut ur en lista på 109 föreläsare från de två institutionerna, medan data samlades in med hjälp av en modifierad form av WHO STEPS-instrumentet för övervakning av riskfaktorn för kronisk sjukdom, som består av en enkätkomponent och fysisk mätning. [17] Frågeformuläret strukturerades, administrerades själv och användes för att samla in uppgifter om de sociodemografiska egenskaperna hos respondenterna, användningen av tobak, alkoholkonsumtionen, typen av kost, mängden och typerna av fysiska aktiviteter som de som svarade på frågeformuläret utförde och den tidigare ökningen av blodtrycket. De fysiska mätningarna inkluderar mätning av vikt, längd och blodtryck. Vikten mättes till närmaste 0,1 kg med hjälp av en bärbar vägningsskala, medan höjden mättes till närmaste 0,5 cm med hjälp av en stadiometer. Kroppsmasseindex (BMI) för var och en av försökspersonerna beräknades sedan utifrån vikt (i kilogram), dividerat med en kvadrat av höjden (i meter); och klassificerades som överviktig när BMI var större eller lika med 30, överviktig när BMI var mellan 25,0 och 29,9, normalvikt när BMI var mellan 18,5 och 24,9 och undervikt när BMI var mindre än 18.5. Blodtrycket mättes i sittande ställning med hjälp av en kvicksilversfygmomanometer med lämplig storlek på mudden, och standardåtgärder vidtogs för att säkerställa noggrannheten. Det systoliska blodtrycket spelades in i fas I Korotkoff ljud, medan det diastoliska blodtrycket spelades in i fas V Korotkoff ljud. Tre på varandra följande mätningar gjordes med ett intervall på minst tre minuter, men endast det andra och tredje måttet användes vid beräkning av medelsystoliskt och diastoliskt blod Ordinioha: Prevalens av hypertoni och dess modifierbara riskfaktorer bland medicinska föreläsare tryck som fungerar som patientens blodtryck. Försökspersonerna sades vara hypertensiva enligt WHO/ ISH- kriterierna, när deras genomsnittliga systoliska blodtryck var större än eller lika med 140 mmHg och/ eller när deras genomsnittliga diastoliska blodtryck var större eller lika med 90 mmHg. Totalt 100 föreläsare kontaktades för studien, men endast 75 svarade på frågeformuläret och ställde sig också till förfogande för de fysiska mätningarna. Detta ger en svarsfrekvens på 75,00%. Av de 75 lärare som studerades var 26 (34,67 %) kvinnor, medan 49 (65,33 %) var män och hade en medelålder på 46,06 ± 9,62 år. De flesta 64 (88,33%) av föreläsarna var gifta, 6 (8,00%) var aldrig gifta, 2 (2,67%) var skilda, medan 3 (4,00%) var änka. Förekomsten av hypertoni bland föreläsarna var 21,33%, totalt 16 av dem, 12 män (75,00%), 4 kvinnor (25,00%) befanns vara hypertensiva. Av de 16 föreläsare som befanns vara hypertensiva var 12 (75,00%) redan medvetna om sin status och redan stod på läkemedelsbehandling och minskat saltintag. Fyra (25,00%) av de hypertensiva föreläsarna var också diabetiker och behandlades med läkemedel och ordinerad kost. Endast 13 (17,33 %) av föreläsarna hade normal vikt, 45 (60,00 %) var överviktiga, 17 (22,67 %) var överviktiga medan ingen var underviktig. Föreläsarna åt i genomsnitt 6,34 ± 2,15 måltider per vecka som tillagades utanför deras hem; alla gick till arbetet med sitt personliga fordon, medan 51 (68,00 %) regelbundet deltar i någon form av fysiska övningar, såsom jogging, snabb promenad och aerobics. Omkring 11 (14,67 %) av föreläsarna hade tidigare rökt cigarett, men bara 2 (2,67 %) röker fortfarande i genomsnitt sex cigarrettpinnar dagligen, huvudsakligen utanför sjukhuset och hemma. Alla föreläsare hade tagit en alkoholdryck under de senaste 12 månaderna, främst vid sociala tillfällen (92,00 %) och mindre än tre standardenheter (94,67 %). De flesta 40 (53,33 %) av föreläsarna tog en alkoholdryck varje månad, 21 (28,00 %) 2-3 gånger per månad, 11 (14,67 %) drack alkohol varje vecka, medan 3 (4,00 %) tog alkohol varje dag. Försökspersonerna i vår studie hade en medelålder på 46,06 ± 9,62 år och en prevalens av hypertoni på 21,33 %. Detta är mycket lägre än prevalensen i den allmänna befolkningen i de urbana centra i Nigeria [18], men i överensstämmelse med prevalensen i landsbygdssamhällena [4,19] och tätortssamhällen [5] i södra Nigeria som i huvudsak befolkades av jordbrukare, fiskare, handlare och hantverkare. En studie från 2003 som genomfördes i urbana Lagos [18] hade visat en prevalens av hypertoni på 44,3 %, medan prevalensen i landsbygdssamhällen i flodstaten [4] och Edostaten [19] var 27,9 % respektive 20,2 %. Den lägre förekomsten av hypertoni som registrerats i vår studie kan bero på det bättre hälsosökande beteendet hos de medicinska föreläsarna, [20] särskilt som 75% av dem som befanns vara hypertensiva redan var medvetna om sitt tillstånd, och hade vidtagit konkreta åtgärder för att kontrollera hypertonin. Detta är mycket högre än den 18,5 % medvetenhet som registrerats i ett landsbygdssamhälle i Edo-staten. [19] Det faktum att endast 2,67% av föreläsarna var rökare, tillsammans med slutsatsen att de flesta av dem drack mindre än tre standardenheter alkohol per dag, kan också vara orsaken till den lägre förekomsten av hypertoni bland föreläsarna. Föreläsarnas användning av alkohol och cigarrettrökning var mycket lägre än i den allmänna befolkningen. Förekomsten av rökning bland de svarande i Lagos-studien [18] var 9,9 %, medan nästan hälften av dem drack mer än tre enheter alkohol per dag. En studie som genomfördes i ett landsbygdssamhälle nära University of Port Harcourt medicinska skola, noterade också en 33% prevalens av skadligt drickande bland medlemmar av samhället, med 12,73% av dem klassificeras som har alkoholberoende problem. [21] Studier har visat ett direkt samband mellan alkoholintag och förhöjt blodtryck [22] medan cigarettrökning sägs stå för minst 12 % av alla kärlsjukdomar, inklusive hypertoni. [2] Det goda hälsosökande beteendet hos försökspersonerna i vår studie och deras hälsosamma livsstil är de viktigaste ingredienserna som krävs i varje läkare, enligt WHO:s ramverk Innovative Care for Chronic Condition (ICCC), [11] för en framgångsrik hantering av högt blodtryck och andra icke smittsamma sjukdomar. Hälsosam livsstil måste särskilt uppmuntras bland läkare, särskilt som förekomsten av rökning bland medicinska studenter ofta liknar den hos den allmänna befolkningen, enligt Global Health Professions Student Survey (GHPSS). [23] Det är också nödvändigt att på vissa håll korrigera intrycket att en läkare behöver dricka alkohol och/eller röka cigaretter för att klara av stressen med medicinsk praxis. [24] Vikten av att se till att läkare har goda hälsovanor återspeglas i antalet studier som visar ett positivt samband mellan läkares hälsosamma vanor och effektiv hantering av patienter med icke smittsamma sjukdomar. [14,16] Önskan att vara en bra förebild för patienter och barn var en av de främsta orsakerna till att flera hälso- och sjukvårdspersonal i Förenta staterna slutade röka. [25] Liknande påtryckningar bör utövas på läkare i Nigeria, även från läkarskolan för att uppnå samma effekt. Vår studie visade också att mer än 80% av försökspersonerna var antingen överviktiga eller överviktiga. Detta är mycket högre än de 39,6 % som konstaterades i Lagos-studien [18] och de 47,5 % som uppmätts i ett landsbygdssamhälle i delstaten Rivers. [4] Viktproblemet för försökspersonerna i vår studie var trots det faktum att Ordinioha: Prevalensen av hypertoni och dess modifierbara riskfaktorer bland medicinska föreläsare att 68% av dem regelbundet deltar i någon form av fysisk motion, men det är dock inte helt oväntat, med tanke på den höga socioekonomiska statusen hos försökspersonerna, och det faktum att de åt på en daglig basis, ett genomsnitt av en måltid som inte förbereddes hemma. Även om övervikt och fetma är etablerade riskfaktorer för högt blodtryck och andra icke smittsamma sjukdomar, [2] viktkontroll har varit en omtvistad fråga i Nigeria och andra afrikanska länder där övervikt fortfarande ses som tecken på välstånd, medan viktminskning ofta förknippas med hiv-infektion. Men det faktum att 68 procent av ämnena i vår studie regelbundet utövades visar att de var väl medvetna om sitt viktproblem och de hälsorisker som är förknippade med det, trots de motstridiga kulturella orsakerna. Detta är högre än den andel som regelbundet används i Lagos-studien [18] och kan ses som en återspegling av den större relevanta kunskap som ämnena i vår studie har. Studier har visat att det finns ett positivt samband mellan utbildning och kroppsstorlek missnöje som ofta utlöser åtgärder som syftar till viktkontroll. [27] Detta belyser ytterligare behovet av att på ett korrekt sätt utbilda allmänheten för att vidta åtgärder mot den eskalerande fetmaepidemin, särskilt som studier som gjorts i industriländerna har kopplat viktproblem till begränsad kunskap, lägre värdering av viktkontroll och kulturella normer för fysisk dragningskraft. [28] Vikten av utbildning och rådgivning har också visats i andra aspekter av hanteringen av hypertoni. Amira och Okubadejo [20] hade funnit att 60% av den bristande överensstämmelsen med antihypertensiv läkemedelsbehandling var relaterad till attityder och övertygelser hos patienterna, som kan förbättras med utbildning och rådgivning; medan Busari et al kunde uppnå en 64% ökning av hypertoni kontroll genom rådgivning av marknadskvinnor. [13] Förekomsten av högt blodtryck bland föreläsarna i den medicinska skolan var lägre än i den allmänna befolkningen i städerna, men i överensstämmelse med den i landsbygdssamhällena i Nigeria. Detta kan tillskrivas det bättre hälsosökande beteendet hos föreläsarna, och deras hälsosamma livsstil. Dessa måste uppmuntras bland läkare, med tanke på det positiva förhållandet mellan läkarens personliga hälsovanor och den effektiva hanteringen av patienter med icke smittsamma sjukdomar. Bakgrund: Kvaliteten på hälso- och sjukvården har blivit en aktuell fråga under de senaste åren och införandet av kvalitetssäkring som utgör en del av verktygen för förändring är nu en viktig utveckling inom hälso- och sjukvården. Mål: Denna studie syftar till att utvärdera kvaliteten på den vård som ges vid Pediatric Dental Clinic of the University College Hospital (UCH), Ibadan. Material och metoder: En beskrivande studie genomfördes bland 141 föräldrar till barn som deltog i kliniken under en tremånadersperiod med hjälp av ett ändrat kvalitetsformulär av Ygge och Arnetz (2001). Resultat: Majoriteten av föräldrarna (93,6%) var nöjda med registreringsprocessen, medan 81,6% och 66,7% var nöjda med väntetider och sociala bekvämligheter som ljus respektive vatten. Betygen på vårdindexens kvalitet visade att 50,4 % respektive 41,1 % av föräldrarna var nöjda med informationsprocessen respektive tillgängligheten. Över 80,0 % av de tillfrågade var mycket nöjda med den tandvård som deras barn fick. 44 (31,2 %) sade dock att de ansåg att de inte kunde kontakta sin tandläkare särskilt/inte alls per telefon. Omkring en femtedel, (21,2 %) kände att de inte alls hade fått information om hur man kan förebygga sitt barns tandproblem. Tandläkarnas oförmåga att presentera sig rapporterades av 56,8 procent av föräldrarna. Den genomsnittliga väntetiden före besöket var 64,9 minuter medan den önskade genomsnittliga väntetiden var 20,1 minuter. Slutsats: Föräldrarna var mycket nöjda med den tandvård som deras barn fick vid ACH och hade stort förtroende för personalens kompetens trots att de klagade över den långa väntetiden. Men det finns en kommunikationsklyfta mellan tandläkare, patienter och föräldrar, eftersom några av tandläkarna inte presenterade sig och gav information om förebyggande av tandsjukdomar. Av denna anledning bör patienternas möten spridas ut för att minska väntetiden. Dessutom bör personalen presentera sig och insatser måste göras för att förbättra hälsoundervisningen till föräldrar. Dentala läroplanen bör betona patient-dentistiska relationer. | Enligt Ordinioha REF är hypertoni och andra icke smittsamma sjukdomar (NCD) för närvarande ansvariga för minst 20 % av alla dödsfall i Nigeria, och utgör upp till 60 % av de patienter som tas in på de medicinska vårdavdelningarna på de flesta tertiära sjukhus i Nigeria. | 1,725,532 | The prevalence of hypertension and its modifiable risk factors among lecturers of a medical school in Port Harcourt, south-south Nigeria: implications for control effort. | {'venue': 'Nigerian journal of clinical practice', 'journal': 'Nigerian journal of clinical practice', 'mag_field_of_study': ['Medicine']} | 8,213 |
Vi betraktar molekylär kommunikation, med information som förmedlas i tiden för frisättning av molekyler. Det viktigaste bidraget i detta dokument är utvecklingen av en teoretisk grund för ett sådant kommunikationssystem. Specifikt utvecklar vi additiv invers Gaussian (IG) bullerkanal modell: en kanal där informationen är korrumperad av buller med en omvänd Gaussian distribution. Vi visar att en sådan kanalmodell är lämplig för molekylär kommunikation i flytande medier - när spridning mellan sändare och mottagare styrs av Brownian rörelse och när det finns positiv drift från sändare till mottagare. Med hjälp av tillgänglig litteratur om IG-distributionen utvecklas övre och nedre gränser för kanalkapacitet, och en maximal sannolikhet för mottagare erhålls. Teori- och simuleringsresultat presenteras som visar att en sådan kanal inte har ett enda kvalitetsmått som är jämförbart med signal-till-brus-förhållandet i AWGN-kanalen. Det visas också att användningen av flera molekyler leder till minskad felfrekvens på ett sätt som liknar mångfaldsordning i trådlös kommunikation. Slutligen diskuterar vi några öppna problem inom molekylär kommunikation som uppstår från IG-systemets modell. | I REF visar samma författare att additiv invers Gaussian bruskanal är lämplig för modellering av molekylära kommunikationskanaler i flytande medier med drift. | 8,543,405 | Molecular communication in fluid media: The additive inverse Gaussian noise channel | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 8,214 |
: Rörelsestil syntes och retargeting: (överst) efter att ha observerat en okänd skådespelare som utför en promenadstil, kan vi syntetisera andra promenadstilar för samma skådespelare; (underst) kan vi överföra promenadstilen från en skådespelare till en annan. Detta papper presenterar en generativ mänsklig rörelse modell för syntes, retargeting, och redigering av personliga mänskliga rörelsestilar. Vi spelar först in en mänsklig rörelse databas från flera aktörer som utför en mängd olika rörelsestilar för särskilda åtgärder. Vi tillämpar sedan multilinjära analystekniker för att konstruera en generativ rörelsemodell av formen x = g(a, e) för särskilda mänskliga handlingar, där parametrarna a och e kontrollerar "identitet" och "stil" variationer av rörelse x respektive. Den nya modulära representationen stöder naturligtvis rörelse generalisering till nya aktörer och/eller stilar. Vi demonstrerar kraften och flexibiliteten hos de multilinjära rörelsemodellerna genom att syntetisera personlig stilistisk mänsklig rörelse och överföra de stilistiska rörelserna från en skådespelare till en annan. Vi visar också hur effektiv vår modell är genom att redigera stilistisk rörelse i stil och/eller identitetsutrymme. | Min m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF presenterar en generativ mänsklig rörelsemodell för syntes av personliga mänskliga rörelsestilar genom att konstruera en multilinjär rörelsemodell som ger en explicit parametriserad representation av mänsklig rörelse i termer av "stil" och "identitet" faktorer. | 2,462,655 | Synthesis and editing of personalized stylistic human motion | {'venue': "I3D '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,215 |
ABSTRACT Den ständigt ökande efterfrågan på portabel och flexibel kommunikation har lett till en snabb tillväxt i nätverksbyggandet mellan obemannade luftfartyg som ofta kallas "flygande ad hoc-nät" (FANET). Befintliga mobila ad hoc routing protokoll är inte lämpliga för FANET på grund av höghastighetståg rörlighet, miljöförhållanden och terrängstrukturer. För att övervinna sådana hinder föreslår vi ett kombinerat system för allriktad och riktad överföring, tillsammans med dynamisk vinkeljustering. Vårt föreslagna system har hybrid användning av unicasting och geocasting routing med hjälp av plats och bana information. Förutsägelsen om mellanliggande nodplats med hjälp av 3D-uppskattning och riktningsöverföring mot den förutsagda platsen, vilket möjliggör ett längre överföringsområde, gör det möjligt att hålla reda på en föränderlig topologi, vilket säkerställer robustheten i vårt protokoll. Dessutom garanterar minskningen av tiden för återetablering av tåglägen och driftstörningar för att öka tåglägets livslängd och framgångsrika paketöverföringar tillförlitligheten i vår föreslagna strategi. Simuleringsresultaten bekräftar att vårt föreslagna system avsevärt skulle kunna öka prestandan för flygbaserade ad hoc-nätverk. INDEX TERMS FANET, routingprotokoll, riktningsöverföring, ruttinställning, genomsnittlig banlivslängd, dynamisk vinkeljustering. | Gankhuyag m.fl. I REF föreslogs ett kombinerat system för allriktad och riktad överföring med dynamisk vinkeljustering för att övervinna de hinder som routingprotokollen i MANETS inte lämpar sig för FANET på grund av rörlighet med hög hastighet. | 11,758,327 | Robust and Reliable Predictive Routing Strategy for Flying Ad-Hoc Networks | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 8,216 |
Abstrakt. Ett kritiskt steg i automatisk igenkänning av fingeravtryck är korrekt segmentering av fingeravtrycksbilder. Syftet med segmenteringen av fingeravtryck är att avgöra vilken del av bilderna som tillhör förgrunden som innehåller funktioner för igenkänning och identifiering och vilken del av bakgrunden som har det bullriga området runt bildens gräns. Ouppmärksamma algoritmer extrahera blockwise funktioner. Övervakad metod brukar först extrahera punkt funktioner som koherens, genomsnittlig grå nivå, varians och Gabor svar, sedan en Fisher linjära klassificerare väljs för klassificering. Denna metod ger exakta resultat, men dess computational komplexitet är högre än de flesta av oövervakade metoder. I detta dokument föreslås att Harris hörnpunktsdetaljer används för att diskriminera förgrund och bakgrund. Att skifta ett fönster i vilken riktning som helst runt hörnet bör ge en stor förändring i intensitet. Vi konstaterade att Harris punkt i förgrundsområdet är mycket starkare än Harris punkt i bakgrundsområdet. Den underliggande mekanismen för denna segmenteringsmetod är att gränsryggsluten i sig är starkare Harris hörnpunkter. Vissa Harris pekar i bullriga blobs kan ha högre styrka, men det kan filtreras som outliers med hjälp av motsvarande Gabor svar. De experimentella resultaten visade att effektiviteten och noggrannheten hos den nya metoden är markant högre än hos tidigare beskrivna metoder. | Wu och Al. I REF föreslogs en metod för segmentering av fingeravtryck baserat på Harris hörndetektor. | 1,122,469 | Robust point-based feature fingerprint segmentation algorithm | {'venue': 'ICB', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,217 |
Jämfört med tidigare flerstegsramar med hjälp av CNN-funktioner, ökar den senaste tidens djupa strategier för finkornigt erkännande huvudsakligen CNN:s inlärningsförmåga på mellannivå. Tidigare strategier uppnå detta genom att införa ett hjälpnätverk för att ingjuta lokaliseringsinformation i det huvudsakliga klassificeringsnätverket, eller en sofistikerad funktionskodning metod för att fånga högre ordning funktionsstatistik. Vi visar att mid-level representation lärande kan förbättras inom CNN ram, genom att lära sig en bank av konvolutionella filter som fångar klass-specifika discriminativa fläckar utan extra del eller avgränsande box annoteringar. En sådan filterbank är välstrukturerad, korrekt initierad och discriminativt inlärd genom en ny asymmetrisk flerströmsarkitektur med konvolutionell filterövervakning och en icke-slumpmässig lagerinitiering. Experimentella resultat visar att vår strategi uppnår toppmoderna resultat på tre allmänt tillgängliga finkorniga igenkänningsdata (CUB-200-2011, Stanford Cars och FGVC-Aircraft). Ablationsstudier och visualiseringar ges för att förstå vårt tillvägagångssätt. | REF anser att en bank av diskriminativa filter för att korrekt lokalisera de diskriminativa fläckarna. | 52,065,963 | Learning a Discriminative Filter Bank Within a CNN for Fine-Grained Recognition | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 8,218 |
Abstract-Med den ökande populariseringen av radiofrekvensidentifiering (RFID) teknik i detaljhandeln och logistikbranschen, RFID integritet har väckt stor uppmärksamhet, eftersom en tagg svarar på frågor från läsare oavsett om de är godkända eller inte. En effektiv lösning är att använda en kommersiellt tillgänglig blockerare tagg som beter sig som om en uppsättning taggar med kända blockerande ID finns. Användningen av spärrtaggar gör dock problemet med klassisk RFID-uppskattning mycket mer utmanande, eftersom vissa äkta tagg-ID omfattas av spärrtaggen och vissa inte. I detta dokument föreslår vi RFID-uppskattningssystem med blockeraretaggar (REB), det första RFID-uppskattningssystemet med blockeraretaggar. REB använder det inramade slotted Aloha-protokollet som anges i EPC C1G2-standarden. För varje omgång av Aloha-protokollet kör REB först protokollet på äkta taggar och blockerare taggen, och kör sedan praktiskt taget protokollet på kända blockerande ID med samma Aloha protokoll parametrar. REB genomför statistiska slutsatser från de två uppsättningarna svar och uppskattar antalet äkta taggar. Rigorös teoretisk analys av parameterinställningar föreslås för att garantera den erforderliga estimeringsnoggrannheten, under tiden minimera tidskostnaden och energikostnaden för REB. Vi avslöjar också en grundläggande avvägning mellan tidskostnaden och energikostnaden för REB, som kan justeras flexibelt av användarna i enlighet med de praktiska kraven. Omfattande experimentella resultat visar att REB avsevärt överträffar toppmoderniseringsprotokollen när det gäller både tidseffektivitet och energieffektivitet. | Enligt REF introducerar användningen av hashvärden risken för taggkollision mellan taggar med samma smältpunkt. | 16,147,252 | RFID Estimation With Blocker Tags | {'venue': 'TNET', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,219 |
International Symposium on Biomedical Imaging (ISBI) hade en stor utmaning att utvärdera beräkningssystem för automatisk upptäckt av metastaserad bröstcancer i hela bildbilder av indikator lymfkörtelbiopsier. Vårt team vann båda tävlingarna i den stora utmaningen, få ett område under mottagarens driftkurva (AUC) på 0.925 för uppgiften att helbildsbild klassificering och en poäng på 0.7051 för tumör lokalisering uppgift. En patolog granskade självständigt samma bilder, erhålla en hel bild bild klassificering AUC på 0.966 och en tumör lokalisering poäng på 0.733. Genom att kombinera vårt djupinlärningssystems förutsägelser med den mänskliga patologens diagnoser ökade patologens AUC till 0,995, vilket motsvarar en cirka 85 procents minskning av den mänskliga felfrekvensen. Dessa resultat visar kraften i att använda djup inlärning för att producera betydande förbättringar i noggrannheten av patologiska diagnoser. | Ett djupt lärande-baserat system föreslås för att upptäcka metastaserande cancer från hela bildbilder, som vann Camelyon Grand Challenge 2016 REF. | 6,645,229 | Deep Learning for Identifying Metastatic Breast Cancer | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Biology']} | 8,220 |
I detta dokument studeras problemet med att inbädda mycket stora informationsnätverk i lågdimensionella vektorutrymmen, vilket är användbart i många uppgifter som visualisering, nodklassificering och länkförutsägelse. De flesta befintliga grafen inbäddningsmetoder inte skala för verkliga världen informationsnätverk som vanligtvis innehåller miljontals noder. I detta dokument föreslår vi en ny metod för inbäddning av nätverk som kallas "LINE", som är lämplig för godtyckliga typer av informationsnätverk: oriktade, riktade och/eller vägda. Metoden optimerar en noggrant utformad objektiv funktion som bevarar både de lokala och globala nätverksstrukturerna. En edge-sampling algoritm föreslås som tar itu med begränsningen av den klassiska stokastisk lutning nedstigning och förbättrar både effektiviteten och effektiviteten av inferensen. Empiriska experiment visar LINE:s effektivitet i en mängd olika verkliga informationsnätverk, inklusive språknätverk, sociala nätverk och citeringsnätverk. Algoritmen är mycket effektiv, som kan lära sig inbäddning av ett nätverk med miljontals hörn och miljarder kanter på några timmar på en typisk enda maskin. Källkoden för LINE finns tillgänglig på nätet. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. | LINE REF lär sig nätverk inbäddade genom att optimera en noggrant utformad objektiv funktion som bevarar både de första-ordning och andra-ordning närheterna. | 8,399,404 | LINE: Large-scale Information Network Embedding | {'venue': "WWW '15", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,221 |
Bakgrund: Eftersom intresset för att anta den semantiska webben inom den biomedicinska domänen fortsätter att växa har Semantic Web-tekniken utvecklats och mognat. Under de senaste åren har det uppstått en rad olika tekniska metoder, bland annat trevåningsteknik, SPARQL-slutpunkter, länkade data och ordförråd för sammanlänkade dataset. Utöver uppbyggnaden av datalager kan dessa tekniska metoder användas för att stödja en dynamisk frågefederation. Som en gemenskapsinsats undersöker arbetsgruppen BioRDF, inom Semantic Web for Health Care and Life Sciences Interest Group, hur dessa framväxande strategier kan användas för att utföra distribuerade frågor över olika neurovetenskapliga datakällor. | Cheung m.fl. REF introducerar semantisk webbfederation i samband med neurovetenskap. | 14,833,212 | A journey to Semantic Web query federation in the life sciences | {'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine', 'Engineering']} | 8,222 |
Abstract-Med överflöd och allestädes närvarande mobila enheter, en ny klass av applikationer växer fram, kallas deltagaranalys (PS), där människor kan bidra med data (t.ex. bilder, video) som samlas in av sina mobila enheter till centrala dataservrar. Integritetsskyddet håller dock på att bli ett stort hinder för att många system för deltagandeanalys ska bli framgångsrika. Flera integritetsbevarande tekniker finns inom ramen för konventionella lokaliseringsbaserade tjänster, men de är inte direkt tillämpliga på PS-systemen på grund av den extra information som PS-systemen kan samla in från sina deltagare. I detta dokument definierar vi formellt problemet med integritet i PS-system och identifierar dess unika utmaningar genom att anta en opålitlig central dataservermodell. Vi föreslår PiRi, ett ramverk för integritetsmedvetenhet för PS-system, som gör det möjligt för användarna att delta utan att äventyra deras integritet. | REF föreslog ett ramverk som kallas PiRi och som gör det möjligt för användarna att delta utan att äventyra deras integritet. | 8,337,956 | Towards preserving privacy in participatory sensing | {'venue': '2011 IEEE International Conference on Pervasive Computing and Communications Workshops (PERCOM Workshops)', 'journal': '2011 IEEE International Conference on Pervasive Computing and Communications Workshops (PERCOM Workshops)', 'mag_field_of_study': ['Computer Science']} | 8,223 |
Strukturen av nätverk som beskriver interaktioner mellan enheter ger betydande insikter om hur dessa system fungerar. Nyligen har ett tillvägagångssätt föreslagits för att omvandla en graf till en samling signaler, med hjälp av en multidimensionell skalteknik på en avståndsmatris som representerar relationer mellan hörn av grafen som punkter i ett Euclidean utrymme: koordinater tolkas som komponenter, eller signaler, indexeras av hörnen. I den här artikeln föreslår vi flera tillägg till detta tillvägagångssätt: Vi utvidgar först den nuvarande metoden, vilket gör det möjligt för oss att belysa samband mellan egenskaperna hos insamling av signaler och grafstrukturer, såsom gemenskaper, regelbundenhet eller slumpmässighet, samt kombinationer av dessa. Därefter beskrivs en robust invers transformationsmetod som tar hänsyn till eventuella förändringar i signalerna jämfört med de ursprungliga. Denna teknik använder, förutom sambanden mellan punkterna i Euclidean utrymme, energin i varje signal, kodar de olika skalorna av grafen struktur. Dessa bidrag öppnar nya perspektiv genom att möjliggöra bearbetning av grafer genom bearbetning av motsvarande signalsamling. En teknik för denoisering av en graf genom filtrering av motsvarande signaler beskrivs sedan, vilket tyder på en betydande potential i tillvägagångssättet. | Idén att omvandla en graf till en tidsseriesignal eller en tidsseriesignal till en graf har också studerats i signalbehandlingsgemenskapen och tillämpats på problemet med graffiltrering REF. | 231,128 | From graphs to signals and back: Identification of network structures using spectral analysis | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Physics']} | 8,224 |
Abstrakt. Personåteridentifiering är utmanande på grund av de stora variationerna av pose, belysning, ocklusion och kameravy. På grund av dessa variationer, är fotgängardata distribueras som högt böjda grenrör i funktionsutrymmet, trots de nuvarande konvolutionella neurala nätverk (CNN) kapacitet för funktionsextraktion. Distributionen är dock okänd, så det är svårt att använda det geodesiska avståndet vid jämförelse av två prover. I praktiken använder de nuvarande djupa inbäddningsmetoderna det euklideiska avståndet för träning och test. Å andra sidan, de mångahanda inlärningsmetoder föreslår att använda Euclidean avstånd i det lokala intervallet, kombinera med den grafiska relationen mellan prover, för att approximera det geodesiska avståndet. Ur denna synvinkel, välja lämplig positiv (dvs. Inomklass) träningsprover inom ett lokalt intervall är avgörande för utbildning CNN inbäddning, särskilt när data har stora intra-klass variationer. I detta dokument föreslår vi en ny måttlig positiv urvalsbrytningsmetod för att utbilda robust CNN för personåteridentifiering, som tar itu med problemet med stora variationer. Dessutom förbättrar vi inlärningen genom en metrisk viktbegränsning, så att den inlärda metriska har en bättre generaliseringsförmåga. Experiment visar att dessa två strategier är effektiva för att lära sig robusta djupa mätvärden för personåteridentifiering, och följaktligen överträffar vår djupa modell betydligt de senaste metoderna på flera riktmärken för personåteridentifiering. Därför kan den studie som presenteras i detta dokument vara användbar för att inspirera till nya konstruktioner av djupa modeller för personåteridentifiering. | Dessutom, urval är viktigt för verifiering förlust, Shi et al. REF föreslog en ny måttlig positiv provbrytningsmetod för att träna ett robust konvolutionellt neuralt nätverk som hanterar problemet med stora variationer. | 15,636,047 | Embedding Deep Metric for Person Re-identication A Study Against Large Variations | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 8,225 |
Abstrakt. Att matcha fotgängare över flera kameravyer, så kallad mänsklig återidentifiering, är ett utmanande forskningsproblem som har många tillämpningar inom visuell övervakning. I och med att Convolutional Neural Networks (CNN) återuppstår, har flera djupa Siamese CNN-arkitekturer föreslagits för mänsklig omidentifiering med målet att projicera bilder av liknande par (dvs. Samma identitet) att vara närmare varandra och olika par att vara avlägsna från varandra. Nuvarande nätverk extraherar dock fasta representationer för varje bild oberoende av andra bilder som paras ihop med den och jämförelsen med andra bilder görs endast på slutnivå. I detta läge riskerar nätverket att misslyckas med att extrahera finare lokala mönster som kan vara nödvändiga för att skilja positiva par från hårda negativa par. I detta dokument föreslår vi en gatingfunktion för att selektivt betona sådana fina gemensamma lokala mönster genom att jämföra mellannivåfunktionerna mellan par av bilder. Detta ger flexibla representationer för samma bild enligt de bilder de är ihopkopplade med. Vi utför experiment på datauppsättningarna CUHK03, Market-1501 och VIPeR och visar bättre prestanda jämfört med en Siamese CNN-arkitektur. | Varior m.fl. REF införde en matchande grind för att välja gemensamma lokala mönster. | 15,172,651 | Gated Siamese Convolutional Neural Network Architecture for Human Re-Identification | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 8,226 |
Abstract-I detta papper anser vi flera Software som en tjänst (SaaS) leverantörer, som erbjuder en uppsättning program som använder moln faciliteter som tillhandahålls av en infrastruktur som en tjänst (IaaS) leverantör. Vi antar att IaaS leverantör erbjuder en lön endast vad du använder systemet liknar Amazon EC2 tjänsten, som omfattar platt, på begäran, och spot virtuella maskin instanser. Vi föreslår ett tvåstegsprogram för avsättning. I det första steget, SaaS leverantörer bestämma antalet nödvändiga platta och på begäran fall med hjälp av standard optimeringstekniker. I det andra steget konkurrerar SaaS-leverantörerna med varandra genom att lämna anbud på de spotfall som inlösts med hjälp av den outnyttjade IaaS-kapaciteten. Vi antar att SaaS leverantörer vill maximera en lämplig nyttofunktion som står för både QoS levereras till sina användare och tillhörande kostnad. IaaS leverantör, å andra sidan, vill maximera sina intäkter genom att bestämma spotpriserna med tanke på SaaS bud. Vi modellerar det andra steget som en Stackelberg spel, och vi beräknar dess jämvikt pris och tilldelning strategi genom att lösa ett matematiskt program med Equilibrium Constraints (MPEC) problem. Genom numerisk utvärdering studerar vi jämviktslösningarna som funktion av systemparametrarna. | En multi-SaaS/single-IaaS problem med platt, på begäran och på plats VM fall står inför i REF, där en tvåstegs avsättningsmekanism föreslås. | 459,176 | Optimal Pricing and Service Provisioning Strategies in Cloud Systems: A Stackelberg Game Approach | {'venue': '2013 IEEE Sixth International Conference on Cloud Computing', 'journal': '2013 IEEE Sixth International Conference on Cloud Computing', 'mag_field_of_study': ['Computer Science']} | 8,227 |
I detta dokument presenteras en ny metod för att modellera språkberoende när det gäller informationssökning. Tillvägagångssättet utvidgar den grundläggande språkmodelleringsstrategi som bygger på unigram genom att lätta på självständighetsantagandet. Vi integrerar kopplingen av en fråga som en dold variabel, som uttrycker termen beroenden i frågan som en acyklisk, planar, oriktad graf. Vi antar sedan att en fråga genereras från ett dokument i två steg: länken genereras först, och sedan varje term genereras i tur och ordning beroende på andra relaterade termer enligt kopplingen. Vi presenterar också en utjämningsmetod för modellparameteruppskattning och en metod för att lära sig kopplingen av en mening på ett oövervakat sätt. Det nya tillvägagångssättet jämförs med den klassiska probabilistiska hämtningsmodellen och de tidigare föreslagna språkmodellerna med och utan hänsyn till begreppsberoenden. Resultaten visar att vår modell uppnår betydande och betydande förbättringar av TREC-samlingarna. | Sample länkdiagram L i en fråga i REF. | 461,312 | Dependence language model for information retrieval | {'venue': "SIGIR '04", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,228 |
Abstrakt. Om ett fysiskt föremål har en jämn eller bitvis jämn gräns, genomgår dess bilder som erhållits av kameror i olika lägen släta synliga deformationer. Dessa deformationer är lokalt väl approximerade av affina transformer av bildplanet. Följaktligen har problemet med solid objektigenkänning ofta letts tillbaka till beräkningen av affina invarianta bild lokala funktioner. Sådana invarianta egenskaper kunde erhållas genom normaliseringsmetoder, men ingen fullt afffin normaliseringsmetod existerar för tillfället. Även stor variation hanteras endast strikt av SIFT-metoden. Genom att simulera zoomar ut och normalisera översättning och rotation, SIFT är invariant till fyra av de sex parametrarna i en affin transform. Den metod som föreslås i detta dokument, Affine-SIFT (ASIFT), simulerar alla bildvyer som kan erhållas genom att variera de två parametrar för kameraaxelns orientering, nämligen latitud- och longitudvinklarna, som återstår med SIFT-metoden. Därefter täcker den de övriga fyra parametrarna med hjälp av själva SIFT-metoden. Den resulterande metoden kommer matematiskt bevisas vara helt afffin invariant. Mot varje prognos är det möjligt att simulera alla vyer beroende på de två kameraorienteringsparametrarna utan någon dramatisk beräkningsbelastning. Ett system med två lösningar minskar ytterligare komplexiteten för ASIFT till ungefär dubbelt så mycket som för SIFT. Ett nytt begrepp, övergången lutning, mäta mängden av snedvridning från en syn till en annan införs. Medan en absolut lutning från en frontal till en sned vy som överstiger 6 är sällsynt, mycket högre övergång lutningar är vanliga när två sneda vyer av ett objekt jämförs (se bild. 1.1), senast ändrad genom Europaparlamentets och rådets förordning (EU, Euratom) nr 966/2012 av den 25 oktober 2012 om finansiella regler för unionens allmänna budget och om upphävande av rådets förordning (EG, Euratom) nr 1605/2002 (EUT L 298, 26.10.2012, s. 1). Den uppnåeliga övergångslutningen mäts för varje affin bildjämförelsemetod. Den nya metoden gör det möjligt att på ett tillförlitligt sätt identifiera egenskaper som har genomgått övergångstakt av stor omfattning, upp till 36 och högre. Detta bekräftas av många experiment som visar att ASIFT betydligt överträffar de senaste metoderna SIFT, MSER, Harris-Affine och Hessian-Affine. | Affine-SIFT (ASIFT) algoritm REF uppnår full affin prestanda och fyra parametrar invarianter av en affin transform av SIFT genom att simulera zoomar ut och normalisera översättning och rotation, men algoritm komplexitet är mer än dubbelt så mycket som den ursprungliga SIFT algoritm. | 3,174,256 | ASIFT: A NEW FRAMEWORK FOR FULLY AFFINE INVARIANT IMAGE COMPARISON | {'venue': 'SIAM J. Imaging Sciences', 'journal': 'SIAM J. Imaging Sciences', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 8,229 |
Abstrakt. Vårt mål i denna uppsats är att introducera och motivera en metodik, som heter Tropos, 1 för att bygga agentorienterade mjukvarusystem. Tropos bygger på två huvudidéer. För det första används begreppet agent och alla relaterade mentalistiska föreställningar (t.ex. mål och planer) i alla faser av programvaruutveckling, från tidig analys ner till det faktiska genomförandet. För det andra täcker Tropos också de mycket tidiga faserna av kravanalys, vilket möjliggör en djupare förståelse av den miljö där programvaran måste fungera, och av den typ av interaktioner som bör uppstå mellan programvara och mänskliga agenser. Metoden illustreras med hjälp av en fallstudie. Troposspråket för konceptuell modellering formaliseras i en metamodell som beskrivs med en uppsättning UML klassdiagram. | Secure Tropos är en säkerhetsförlängning av Tropos-metoden REF. | 12,198,584 | Tropos: An Agent-Oriented Software Development Methodology | {'venue': 'Autonomous Agents and Multi-Agent Systems', 'journal': 'Autonomous Agents and Multi-Agent Systems', 'mag_field_of_study': ['Computer Science']} | 8,230 |
Riding på vågorna av djupa neurala nätverk, djupt metrisk inlärning har uppnått lovande resultat i olika uppgifter genom att använda triplet nätverk eller Siamese nätverk. Även om det grundläggande målet att göra bilder från samma kategori närmare än de från olika kategorier är intuitivt, är det svårt att optimera målet direkt på grund av den kvadratiska eller kubik urval storlek. Hårt exempel gruvbrytning används ofta för att lösa problemet, som spenderar den dyra beräkningen på en delmängd av prover som anses svåra. Hårt definieras dock i förhållande till en viss modell. Då kommer komplexa modeller att behandla de flesta prover som enkla och vice versa för enkla modeller, som båda inte är bra för träning. Det är svårt att definiera en modell med rätt komplexitet och välja hårda exempel på ett lämpligt sätt eftersom olika prover har olika hårda nivåer. Detta motiverar oss att föreslå det nya ramverket Hard-Aware Deeply Cascaded Embedding (HDC) för att ensemble en uppsättning modeller med olika komplexiteter på kaskad sätt för att mina hårda exempel på flera nivåer. Ett prov bedöms av en serie modeller med ökande komplexitet och endast uppdaterar modeller som betraktar provet som ett hårt fall. HDC utvärderas på CARS196, CUB-200-2011, Stanford Online Products, VehicleID och DeepFashion dataset, och överträffar toppmoderna metoder med stor marginal. * Motsvarande författare : Chao Zhang. frågebild enkelt positiva bilder hårda positiva bilder semi-hårda positiva bilder | Yuan m.fl. REF ensemble en uppsättning modeller med olika komplexiteter för att bearbeta prover med olika svårigheter. | 7,849,657 | Hard-Aware Deeply Cascaded Embedding | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 8,231 |
Kooperativ störning är ett tillvägagångssätt som nyligen har föreslagits för att förbättra fysisk lagerbaserad säkerhet för trådlösa nätverk i närvaro av en tjuvlyssnare. Medan källan sänder sitt meddelande till sin destination sänder en relänod en störningssignal för att skapa störningar vid tjuvlyssnaren. I detta dokument beaktas ett scenario där reläet är utrustat med flera antenner. En ny systemdesign föreslås för att bestämma antennens vikter och sändningskraften hos källa och relä, så att systemsekretessen maximeras under förutsättning att en total sändningseffekt begränsas, eller, överföringens effekt minimeras under förutsättning att sekretessgraden begränsas. Eftersom de optimala lösningarna på dessa problem är svåra att få fram föreslås suboptimala slutna lösningar som inför ytterligare en begränsning, dvs. att störningssignalen vid destinationen upphävs fullständigt. | Dong m.fl. REF anser att CJ är ett tillvägagångssätt för att förbättra PLS i den praktiska systemkonstruktionen där en suboptimal sluten lösning föreslogs för att upphäva störningssignalen vid önskad destination. | 14,699,330 | Cooperative jamming for wireless physical layer security | {'venue': '2009 IEEE/SP 15th Workshop on Statistical Signal Processing', 'journal': '2009 IEEE/SP 15th Workshop on Statistical Signal Processing', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 8,232 |
Integrering av mobil-edge computing (MEC) och trådlös kraftöverföring (WPT) är en lovande teknik i Internet of Things (IoT) eran. Det kan ge massiva lågeffekt mobila enheter med förbättrad beräkningsförmåga och hållbar energiförsörjning. I detta dokument anser vi att ett trådlöst MEC-system med flera användare, där en multi-antennanslutningspunkt (AP) (integrerad med en MEC-server) sänder trådlös kraft för att ladda flera användare och varje användarnod förlitar sig på den skördade energin för att utföra latenskänsliga beräkningsuppgifter. Med MEC kan dessa användare utföra sina respektive uppgifter lokalt av sig själva eller avlasta alla eller delar av uppgifterna till AP baserat på en tidsdelning flera åtkomst (TDMA) protokoll. Under denna installation strävar vi efter en energieffektiv MEC-WPT-systemdesign genom att gemensamt optimera sändningsenergistrålkastaren vid AP, centralenhetens frekvenser (CPU) och de avlastade bitarna hos varje användare, samt tidsfördelningen mellan olika användare. I synnerhet minimerar vi energiförbrukningen vid AP över en viss tid block under förutsättning att beräkningar latens och energiavverkning begränsningar per användare. Genom att formulera detta problem i ett konvext ramverk och använda Lagrange-dualitetsmetoden får vi dess optimala lösning i en halvsluten form. Numeriska resultat visar fördelarna med den föreslagna gemensamma utformningen jämfört med alternativa referenssystem. | Wang m.fl. har föreslagit ett resursfördelningssystem för att minimera multi-antenna åtkomstpunkten (AP) totala energiförbrukning som omfattas av användarnas individuella beräkning latency begränsningar REF. | 2,172,141 | Joint offloading and computing optimization in wireless powered mobile-edge computing systems | {'venue': '2017 IEEE International Conference on Communications (ICC)', 'journal': '2017 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 8,233 |
Vi utforskar användningen av landningssidan innehåll i sponsrad sökning annonsval. Specifikt jämför vi användningen av annonsens inneboende innehåll för att öka annonsen med hela, eller delar av landningssidan. Vi utforskar två typer av utvinningssammanfattningstekniker för att välja användbara regioner från landningssidorna: out-of-context och in-context metoder. Out-of-context metoder väljer framträdande regioner från landningssidan genom att analysera innehållet ensam, utan att ta hänsyn till annonsen i samband med landningssidan. I context metoder använda annons sammanhang (inklusive dess titel, kreativa, och budfraser) för att hjälpa till att identifiera regioner på landningssidan som bör användas av ad urval motor. Dessutom introducerar vi en enkel men effektiv oövervakad algoritm för att berika annonssammanhanget för att ytterligare förbättra annonsvalet. Experimentell utvärdering bekräftar att användningen av landningssidor avsevärt kan förbättra kvaliteten på annonsurvalet. Vi finner också att våra extrahive summering tekniker minskar storleken på landningssidor avsevärt, samtidigt som de behåller eller till och med förbättrar prestandan av annonshämtning över den metod som använder hela landningssidan. | För att förbättra sponsrad sökning annonshämtning, ett antal utvinningssammanfattning tekniker för landningssidor utforskades i REF. | 15,168,270 | Using landing pages for sponsored search ad selection | {'venue': "WWW '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,234 |
Stackelberg ekvilibria har blivit allt viktigare som lösningskoncept i beräkningsspelsteorin, till stor del inspirerat av praktiska problem som säkerhetsinställningar. I praktiken är det dock typiskt osäkert vad gäller modellen om motståndaren. Denna uppsats är, såvitt vi vet, den första att undersöka Stackelberg equilibria under osäkerhet i omfattande-form spel, en av de bredaste klasserna av spel. Vi introducerar robust Stackelberg equilibria, där osäkerheten handlar om motståndarens belöningar, samt de där motståndaren har begränsad lookahead och osäkerheten handlar om motståndarens nodutvärderingsfunktion. Vi utvecklar en ny mixed-integer program för deterministiska limited-lookahead inställning. Vi utökar sedan programmet till den robusta inställningen för Stackelberg jämvikt under obegränsad och under begränsad lookahead av motståndaren. Vi visar att för det specifika fallet av intervall osäkerhet om motståndarens utbetalningar (eller om motståndarens nod utvärderingar i fallet med begränsad lookahead), robust Stackelberg equilibria kan beräknas med en blandad-integer program som är av samma asymptotiska storlek som för den deterministiska inställningen. I en Stackelberg jämvikt, en ledare förbinder sig till en strategi först, och sedan en följare väljer en strategi för sig själv. Modellen infördes först i samband med konkurrens mellan företag där ledaren väljer en mängd att leverera, och sedan väljer följaren en mängd att leverera (von Stackelberg 1934). Stackelberg equilibria har blivit viktigt som lösningskoncept i beräkningsteorin, till stor del inspirerat av praktiska problem som säkerhetsinställningar, där ledaren är en försvarare som väljer en blandad (dvs potentiellt randomiserad) strategi först, och sedan den följare som är angriparen bestämmer var man ska attackera, om alls. De flesta arbeten på Stackelberg Equilibria har fokuserat på normal form (alias. matris-form) spel. Conitzer och Sandholm (2006) studerade problemet med att beräkna en optimal strategi för att engagera sig i normala spel. Denna typ av arbete har utvidgats till många säkerhets-spel program. I praktiken är det typiskt osäkert om motståndarens belöningar. I normala-form spel har detta studerats som Bayesian Stackelberg spel där spelarna har privat information om sina egna utbetalningar, och det finns allmän kunskap om den tidigare fördelningen över pay-Extensive-form spel (EFGs)-dvs., trädform spel är ett mycket allmänt spel representationsspråk. EFGs är exponentiellt mer kompakta och också mer uttrycksfulla än normala-form spel. Letchford och Conitzer (2010) studerar hur man kan beräkna en optimal strategi för att engagera sig i EFGs och bevisa hårdhet resultat under flera antaganden om spelets struktur. Bošansk och al. (2015) ge ytterligare resultat särskilt för perfekt information EFG. Bosansky och Cermak (2015) utvecklar ett mixed-integer program (MIP) för att beräkna en Stackelberg strategi, och Cermak et al. (2016) utveckla ett iterativt tillvägagångssätt baserat på upperbounding lösningar från omfattande-form korrelerade Stackelberg equilibria. Till vår kännedom är vi de första att överväga osäkerhet om motståndaren i Stackelberg strategier för EFGs. Detta är viktigt eftersom EFGs är ett kraftfullt representationsspråk och eftersom det i praktiken finns typiskt osäkerhet om motståndaren. Vi har en kraftfull strategi för att modellera denna osäkerhet. Vi introducerar robust Stackelberg equilibria för EFGs, där osäkerheten handlar om motståndarens belöningar, samt de där motståndaren har begränsad lookahead och osäkerheten handlar om motståndarens nodutvärderingsfunktion. Vi utvecklar ett nytt minimiimportpris för den deterministiska limitedlookahead-inställningen. Vi utökar sedan MIM till den robusta inställningen för Stackelberg jämvikt under obegränsad och under begränsad lookahead av motståndaren. Vi visar att för det specifika fallet av intervall osäkerhet om motståndarens utbetalningar (eller om motståndarens nod utvärderingar i fallet med begränsad lookahead), robust Stackelberg equilibria kan beräknas med en MIM som är av samma asymptotiska storlek som för den deterministiska inställningen. Våra resultat för robust Stackelberg jämvikt i EFGs är relevanta för säkerhets-spel inställningar med sekventiella interaktioner, där EFG modeller kan mer kompakt representera vissa spel, jämfört med en normal-form representation (Bosansky och Cermak 2015). Robusta modeller är viktiga i säkerhetsspel, där motståndare modeller ofta har osäkerhet, både i standard säkerhetsspel (KiekarXiv:1711.08080v1 [cs.GT] | Även, medan lärande i samband med säkerhetsspel har dykt upp i litteraturen (Balcan et al. 2015; REF, detta dokument inför en RL-baserad strategi för hotscreening för första gången. | 8,987,887 | Robust Stackelberg Equilibria in Extensive-Form Games and Extension to Limited Lookahead | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 8,235 |
Abstract-Vi undersöker kvantitativt hur maskininlärningsmodeller läcker information om de enskilda dataposter på vilka de utbildades. Vi fokuserar på den grundläggande medlemskap inference attack: med tanke på en datapost och black-box tillgång till en modell, avgöra om posten var i modellens träningsdataset. För att göra en medlemsslutsats mot en målmodell använder vi oss av maskininlärning och utbildar vår egen inferensmodell för att känna igen skillnader i målmodellens förutsägelser om de ingångar som den tränade på jämfört med de ingångar som den inte tränade på. Vi utvärderar empiriskt våra inferenstekniker på klassificeringsmodeller som utbildats av kommersiella "maskininlärning som en tjänst" leverantörer som Google och Amazon. Med hjälp av realistiska datauppsättningar och klassificeringsuppgifter, inklusive en datauppsättning för sjukhusutskrivning vars medlemskap är känsligt ur ett sekretessperspektiv, visar vi att dessa modeller kan vara sårbara för medlemsinferensattacker. Vi undersöker sedan de faktorer som påverkar detta läckage och utvärderar begränsningsstrategier. | Medlemskap inference attacker mot ML modeller: Shokri et al. REF införde en slutledning av medlemskapet i ML-inställningen. | 10,488,675 | Membership Inference Attacks Against Machine Learning Models | {'venue': '2017 IEEE Symposium on Security and Privacy (SP)', 'journal': '2017 IEEE Symposium on Security and Privacy (SP)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 8,236 |
Batch Normalization (BN) är en milstolpe teknik i utvecklingen av djupt lärande, vilket gör det möjligt för olika nätverk att träna. Men normalisera längs batch dimension introducerar problem -BN fel ökar snabbt när batch storlek blir mindre, orsakas av felaktig batch statistik uppskattning. Detta begränsar BN:s användning för utbildning av större modeller och överföring av funktioner till datorseende uppgifter, inklusive upptäckt, segmentering och video, som kräver små partier som begränsas av minnesförbrukning. I detta dokument presenterar vi Group Normalization (GN) som ett enkelt alternativ till BN. GN delar upp kanalerna i grupper och beräknar inom varje grupp medelvärdet och variansen för normalisering. GN:s beräkning är oberoende av batchstorlekar, och dess noggrannhet är stabil i ett brett spektrum av batchstorlekar. På ResNet-50 tränas i ImageNet, GN har 10,6 % lägre fel än sin BN motsvarighet när man använder en satsstorlek på 2; när man använder typiska satsstorlekar, GN är jämförelsevis bra med BN och överträffar andra normaliseringsvarianter. Dessutom kan GN naturligt överföras från förutbildning till finjustering. GN kan överträffa sina BN-baserade motsvarigheter för objektdetektering och segmentering i COCO, 1 och för videoklassificering i Kinetics, vilket visar att GN effektivt kan ersätta den kraftfulla BN i en mängd olika uppgifter. GN kan enkelt implementeras med några rader kod i moderna bibliotek. | Gruppnormalisering (GN) REF delar olika kanalerna i grupper och beräknar inom varje grupp medelvärdet och variansen för normalisering. | 4,076,251 | Group Normalization | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 8,237 |
Nyligen har en del forskare gjort omfattande experiment för att studera genomförbarheten och prestandan hos fordonets drive-thru tillgång till vägknutpunkter (APs). Experimenten visar att konnektiviteten till AP är begränsad. Ett drive-thru-fordon har en hög signalstyrka nära AP, men upplever dålig länkkvalitet när det går in i eller ut ur AP-täckningsområdet. Eftersom ett fordon tillbringar en stor del av anslutningstiden i detta dåliga länkkvalitetsområde, kan datagenomströmningen minskas avsevärt. Detta problem har identifierats i flera arbeten, men en genomförbar lösning har ännu inte identifierats. I detta dokument föreslår vi ett fordon-till-fordon relä (V2VR) system som utökar serviceutbudet av vägtullsystem och tillåter drive-thru fordon att upprätthålla hög genomströmning inom ett längre intervall. Vår lösning är distribuerad och helt kundbaserad, utan någon ändring av befintliga 802.11 AP. Genom implementering och simulering visar vi att V2VR-systemet effektivt kan utöka drive-thru-access-området och förbättra nätverksutnyttjandet för drive-thru-fordon. | Zhao m.fl. I REF föreslogs ett V2V-reläsystem som utvidgar RSU:s serviceutbud och gör det möjligt för fordon att hålla hög genomströmning inom ett längre intervall. | 2,802,587 | Extending drive-thru data access by vehicle-to-vehicle relay | {'venue': "VANET '08", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,238 |
Skip lists är datastrukturer thla t använda probabilistisk balansering snarare än strikt påtvingad balansering. Som ett resultat, algoritmer för införande och radering i skip listor är mycket enklare och betydligt snabbare än likvärdiga algoritmer för balanserade träd. Binära träd kan användas för att representera abstrakta datatyper såsom ordböcker och beställda listor. De fungerar bra när elementen sätts in i slumpmässig ordning. Vissa sekvenser av operationer, såsom infoga elementen i ordning, producerar degenererade datastrukturer som utför mycket poo.rly. Om det var möjligt att slumpmässigt permutera listan över objekt som ska införas, träd skulle fungera bra med hög sannolikhet för alla inmatningssekvenser. I de flesta fall frågor måste besvaras på nätet, så slumpmässigt permutation indata är opraktiskt. Balanserade trädalgoritmer omorganiserar trädet som operationer utförs för att upprätthålla vissa balansförhållanden och säkerställa god prestanda. Skip lists är ett probabilistiskt alternativ till balanserade träd. Skip lists balanseras genom att konsultera en slumpmässig talgenerator. Även om skip listor har dåliga värsta fall prestanda, ingen ingång sekvens konsekvent producerar det värsta-fall prestanda (mycket som snabbsort när pivot elementet väljs slumpmässigt). Det är mycket osannolikt att en databas lista datastruktur kommer att vara betydligt obalanserad (t.ex., för en ordbok med mer än 250 element, chansen att en sökning kommer att ta mer än tre gånger den expeci.ed tiden är mindre än en på en miljon). Skip lists har balansegenskaper som liknar sökträd byggda av slumpmässiga insättningar, men kräver ändå inte insättningar för att vara slumpmässiga. Det är lättare att balansera en datastruktur probilitalt än att uttryckligen upprätthålla balansen. För många applikationer, skip lists är en mer naturlig representation än träd, och de leder till enklare algoritmer. | Den skip list datastrukturen uppfanns 1990 av Pugh REF. | 207,691,558 | Skip lists: a probabilistic alternative to balanced trees | {'venue': 'CACM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,239 |
Abstrakt. Studien syftar till att undersöka styrkan i orsakssambandet mellan aktiekurssökarränta och verkliga aktiemarknadsresultat på globala aktiemarknadsindex. Ett sådant fenomen kan också förmedlas av investerarnas beteende och omfattningen av nyhetsbevakningen. De aktiespecifika uppgifterna om internetsökningstrender och motsvarande indexvärden från olika länders börser samlas in och analyseras. Empiriska fynd visar att globala aktiekurssökare i högre grad korrelerar med utvecklingsekonomier med färre effekter på de sydasiatiska börserna, bortsett från ett starkt inflytande i västländerna. Slutligen efterlyser denna studie utveckling av expertbeslutsstödsystem med syntes av användning av stora datakällor om prognostiserade marknadsresultat. | Arjun R et al. REF föreslog en triangulering av ett kvalitativt resonemang för att undersöka styrkan i orsakssambandet mellan aktiekurssökarränta och verkliga aktiemarknadsresultat på globala aktiemarknadsindex. | 158,173,570 | Predictive modeling of stock indices closing from web search trends | {'venue': None, 'journal': 'arXiv: General Finance', 'mag_field_of_study': ['Economics']} | 8,240 |
Trots mer än ett decennium av experimentellt arbete i multi-robotsystem har viktiga teoretiska aspekter av multi-robotsamordningsmekanismer hittills i stort sett varit obehandlade. För att ta itu med denna fråga fokuserar vi på problemet med multi-robot uppgift allokering (MRTA). Det mesta arbetet med MRTA har varit ad hoc och empiriskt, och många samordningsarkitekturer har föreslagits och validerats på ett proof-of-concept-sätt, men sällan analyserats. Med målet att skapa objektiv grund för detta viktiga forskningsområde presenterar vi en formell studie av MRTA-problem. En domänoberoende taxonomi av MRTA-problem ges, och det visas hur många sådana problem kan ses som fall av andra, välstuderade, optimeringsproblem. Vi visar hur relevant teori från verksamhetsforskning och kombinatorisk optimering kan användas för analys och ökad förståelse av befintliga tillvägagångssätt för uppgiftstilldelning, samt för att visa hur samma teori kan användas i syntesen av nya tillvägagångssätt. | Under andra omständigheter, problemen med heterogen multirobot uppgift tilldelning problem har uppfattats som fall av verksamhet forskning, ekonomi, schemaläggning, nätverksflöden, och kombinatorisk optimering REF. | 61,299,428 | A Formal Analysis and Taxonomy of Task Allocation in Multi-Robot Systems | {'venue': None, 'journal': 'The International Journal of Robotics Research', 'mag_field_of_study': ['Computer Science']} | 8,241 |
E-handel användare kan förvänta sig olika produkter även för samma fråga, på grund av sina olika personliga preferenser. Det är välkänt att det finns två typer av preferenser: långsiktiga och kortsiktiga. Den förstnämnda avser användarnas inneboende inköpsfördel och utvecklas långsamt. De sistnämnda återspeglar däremot användarnas inköpsbenägenhet under en relativt kort period. De båda påverkar användarnas nuvarande inköps intentioner. Men få forskningsinsatser har ägnats åt att gemensamt modellera dem för den personliga produktsökningen. I detta syfte föreslår vi en ny Attentive Long Short-Term Preferens modell, döpt som ALSTP, för personlig produktsökning. Vår modell antar neurala nätverk strategi för att lära sig och integrera de långsiktiga och kortsiktiga användarpreferenser med den aktuella frågan för personlig produktsökning. I synnerhet är två uppmärksamhetsnätverk utformade för att skilja på vilka faktorer på kort sikt och långsiktiga användarpreferenser som är mer relevanta för den aktuella frågan. Denna unika design gör det möjligt för vår modell att bättre fånga användarnas nuvarande sökplaner. Vårt arbete är det första att tillämpa uppmärksamhetsmekanismer för att integrera både långsiktiga och kortsiktiga användarpreferenser med den givna frågan för den personliga sökningen. Omfattande experiment över fyra Amazon produktdataset visar att vår modell avsevärt överträffar flera toppmoderna produktsökmetoder i termer av olika utvärderingsmått. Tillstånd att göra digitala eller papperskopior av hela eller delar av detta arbete för personligt bruk eller klassrum beviljas utan avgift, förutsatt att kopiorna inte görs eller distribueras för vinst eller kommersiella fördelar och att kopiorna är försedda med detta meddelande och den fullständiga hänvisningen på första sidan. Upphovsrätt till delar av detta verk som ägs av andra än ACM måste hedras. Abstraktering med kredit är tillåten. För att kopiera på annat sätt, eller återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. Numera har e-handeln blivit mycket populär i och med att Internet blomstrar. Dess bekväma tillgång till ett enormt utbud av varor gör det möjligt för människor att handla nästan alla produkter hemma. När användare på e-handel webbplatser som Amazon 1 avser att köpa en produkt, brukar de välja sina önskade bland miljontals objekt genom att söka. Standardscenariot för produktsökning online är att en användare lämnar in en fråga, och sedan sökmotorn returnerar en rankad lista över produkter som är relevanta för den givna frågan. Vanligtvis, frågor som lämnas in av användare omfattar bara några nyckelord (t.ex. vit T-shirt för män), som vanligtvis är för korta eller tvetydiga för att uttrycka användarnas behov exakt, vilket resulterar i otillfredsställande sökresultat. Dessutom kan användarnas preferenser på produkter vara mycket olika (på grund av olika bakgrunder, dvs. ålder, kön, inkomst) eller starkt påverkas av de nuvarande sammanhangen (t.ex., säsong, plats). Därmed är det inte lämpligt att returnera samma sökresultat till olika användare för samma fråga. Mot bakgrund av detta, med tanke på användarens personliga intentioner i nuvarande sammanhang och syftar till att returnera relevanta produkter till den givna frågan, den så kallade personliga produktsökningen, spelar en central roll för att möta användarens aktuella shoppingbehov. Förutsättningen för en bra personlig produktsökmotor är att modellera användarens preferenser och effektivt integrera dem med den aktuella frågan. Det är väl känt att det finns två typer av användarpreferenser [3, 63]: långsiktiga och kortsiktiga. Den förstnämnda avser användarens inneboende och relativt stabila (som långsamt) köpfördel, såsom favoritfärger, föredragna modedesigner, passande storlekar och konsumtionsnivå, som är omärkligt påverkad av användarens personliga bakgrunder, såsom ålder, uppfostran, äktenskap, utbildning och inkomst. Däremot förmedlar den kortsiktiga användarpreferensen användarens inköps intention på relativt kort tid. Det påverkas av för övrigt övergående händelser, såsom ny produkt release, säsong förändring och speciella personliga tillfällen som födelsedag [63], som kan härledas från användarens nyligen köpta produkter. Jämfört med den långsiktiga användarpreferensen förändras det kortsiktiga oftare och drastiskt. Traditionella metoder för produktsökning [17] [18] [19] 59 ] använder ofta enkel matchning mellan frågor och produkter utan att utnyttja användarens specifika egenskaper. De kännetecknar knappast användarspecificiteten, för att inte tala om heterogeniteten. Det leder därför ofta till suboptimal prestanda på grund av användarens olika förväntningar. Med tanke på detta, personalisering blir helt nödvändigt för produktsökningen. Personliga sökningar har i själva verket studerats flitigt i litteratur under de senaste åren. Däri, studien av personlig webbsökning som införlivar användarens preferenser är den mest relaterade sub-direction till vårt arbete, och det kan i stort sett delas in i två kategorier: kortvarig sessionsbaserad 2 och långsiktig profilbaserad webbsökning. Tillvägagångssätt i den första kategorin [15, 29, 55] fångar den kortsiktiga användaren föredrar från söksessioner. Icke desto mindre skiljer sig från webbsökningen där en session ofta innehåller gott om frågor och rika klickresultat, sessionsdata i produktsökningen 3 är oftast alltför sparsam för att träna en bra personlig | Sedan Guo et al. REF föreslog en Attentive Long Short-Term Preferens modell (ALSTP) för personlig produktsökning genom att överväga långsiktiga och kortsiktiga användarpreferenser med hjälp av två uppmärksamhetsnätverk. | 53,739,618 | Attentive Long Short-Term Preference Modeling for Personalized Product Search | {'venue': 'TOIS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,242 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.