src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
ABSTRACT Som ett mycket attraktivt datorparadigm gör molntjänster det möjligt för resursanslutna användare att njuta av kostnadseffektiva och flexibla resurser av mångfald. Med tanke på att molnservrar och användarnas dataintegritet är opålitliga är det nödvändigt att kryptera datan innan den läggs ut på entreprenad till molnet. Dock innebär formen av krypterad lagring också en rad problem, såsom: Hur kan användare söka över outsourcade data? Hur att förverkliga användarsidan verifiability av sökresultat för att motstå skadliga molnservrar? Hur möjliggör serversidan verifiability av outsourcade data för att kontrollera skadliga dataägare? Hur kan man uppnå betalningsrättvisa mellan användaren och molnet utan att införa någon tredje part? För att ta itu med dessa utmanande frågor, i detta dokument, introducerar vi TKSE, ett pålitligt sökord söksystem över krypterade data utan någon tredje part, betrodd eller inte. I TKSE gör det krypterade dataindexet baserat på digital signatur det möjligt för en användare att söka över de utlagda krypterade data och kontrollera om sökresultatet som returneras av molnet uppfyller de fördefinierade sökkraven. I synnerhet, för första gången, TKSE inser server-sidan verifiability som skyddar ärliga molnservrar från att inramas av skadliga dataägare i datalagringsfasen. Dessutom används blockchain-teknik och hashfunktioner för att möjliggöra betalning rättvisa sökavgifter utan att införa någon tredje part även om användaren eller molnet är skadlig. Vår säkerhetsanalys och prestandautvärdering visar att TKSE är säker och effektiv och lämplig för molntjänster. INDEX TERMS Blockchain, cloud computing, rättvis betalning, sökbar kryptering, verifiability.
|
År 2018, Zhang et al. REF införde TKSE, ett pålitligt sökordssökningssystem baserat på krypterad data, utan någon tredje part.
| 49,410,603 |
TKSE: Trustworthy Keyword Search Over Encrypted Data With Two-Side Verifiability via Blockchain
|
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
| 14,459 |
Att upptäcka avvikelser i spatiotemporella trafikdata är ett viktigt forskningsproblem i datautvinnings- och kunskapsupptäcktssamhället. Men såvitt vi vet har upptäckten av relationer, särskilt orsakssamband, bland upptäckta trafikstörningar inte undersökts tidigare. I detta dokument föreslår vi algoritmer som konstruerar yttre kausalitetsträd baserat på tidsbundna och rumsliga egenskaper hos upptäckta avvikelser. Frekventa understrukturer av dessa kausalitetsträd avslöjar inte bara återkommande interaktioner mellan spatiotemporala avvikelser, utan potentiella brister i utformningen av befintliga trafiknät. Effektiviteten och styrkan hos våra algoritmer valideras genom experiment på en mycket stor mängd verkliga taxibanor i ett urbant vägnät.
|
Liu m.fl. REF använder ofta subgrafbrytning för att upptäcka onormala länkar för varje tidsintervall, och sedan bilda avvikande träd för att avslöja potentiella brister i utformningen av befintliga trafiknät.
| 47,995 |
Discovering spatio-temporal causal interactions in traffic data streams
|
{'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,460 |
Befintliga finkorniga visuella kategoriseringsmetoder lider ofta av tre utmaningar: brist på träningsdata, stort antal finkorniga kategorier och hög intraklass jämfört med låg variation mellan klasser. I detta arbete föreslår vi en generisk iterativ ram för finkornig kategorisering och dataset bootstrappning som hanterar dessa tre utmaningar. Med hjälp av djup metrisk inlärning med människor i slingan, lär vi oss en lågdimensionell funktion inbäddning med ankarpunkter på grenrör för varje kategori. Dessa förankringspunkter fångar upp variationer inom klassen och förblir diskriminerande mellan klasserna. I varje omgång skickas bilder med höga självsäkerhetspoäng från vår modell till människor för märkning. Genom att jämföra med exempel på bilder markerar etiketterna varje kandidatbild som antingen en "sann positiv" eller en "falsk positiv". Sanna positiva läggs till i vår nuvarande datauppsättning och falska positiva betraktas som "hårda negativa" för vår metriska inlärningsmodell. Sedan omskolas modellen med en utökad datauppsättning och hårda negativ för nästa omgång. För att visa effektiviteten av det föreslagna ramverket, vi bootstrap en finkornig blomma dataset med 620 kategorier från Instagram bilder. Det föreslagna systemet för djup metriska studier utvärderas både på vårt dataset och på CUB-200-2001 Birds dataset. Experimentella utvärderingar visar betydande resultatvinster med hjälp av dataset bootstrappning och visar toppmoderna resultat som uppnås med de föreslagna djupa metriska inlärningsmetoderna.
|
Jämfört med softmax förlust används i konventionella klassificeringsnätverk, kan metrisk inlärning bädda in proverna i en låg-dimensionell utrymme fånga hög intra-klass varians, som är mer lämplig för finkornig bild kategorisering REF.
| 1,325,997 |
Fine-Grained Categorization and Dataset Bootstrapping Using Deep Metric Learning with Humans in the Loop
|
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
| 14,461 |
Detta är den accepterade versionen av tidningen. Denna version av publikationen kan skilja sig från den slutliga publicerade versionen. Abstract-Energieffektivitet och tillförlitlighet är de två viktiga kraven för verksamhetskritiska trådlösa sensornätverk. I samband med sensor topologi kontroll för routing och spridning, Connected Dominating Set (CDS) baserade tekniker som föreslås i tidigare litteratur ger den mest lovande effektivitet och tillförlitlighet. I en CDS-baserad topologi kontrollteknik, en ryggrad -bestående av en uppsättning starkt anslutna noder - bildas som möjliggör kommunikation mellan godtyckliga par av noder i nätverket. I detta dokument visar vi att bildandet av en polygon i nätverket ger en tillförlitlig och energieffektiv topologi. Baserat på denna observation, föreslår vi Poly, en ny topologi konstruktion protokoll baserat på idén om polygoner. Vi jämför Polys prestanda med tre framstående CDS-baserade topologikonstruktionsprotokoll, nämligen CDS-Regular K, Energieffektiv CDS (EECDS) och A3. Våra simuleringsresultat visar att Poly presterar konsekvent bättre när det gäller meddelande överliggande och andra utvalda mätvärden. Vi modellerar också Polys tillförlitlighet och jämför den med andra CDS-baserade tekniker för att visa att den uppnår bättre konnektivitet under mycket dynamiska nätverkstopologier. Permanent databaslänk
|
I REF föreslås en ny topologi konstruktion protokoll baserat på idén om polygoner, kallas poly, och det visas att bildandet av en polygon i nätverket ger en tillförlitlig och energieffektiv topologi.
| 206,895,285 |
Poly: A reliable and energy efficient topology control protocol for wireless sensor networks
|
{'venue': 'Comput. Commun.', 'journal': 'Comput. Commun.', 'mag_field_of_study': ['Computer Science']}
| 14,462 |
Djuplärande algoritmer, särskilt konvolutionella nätverk, har snabbt blivit en metod att välja för att analysera medicinska bilder. I detta dokument granskas de stora djuplärande begrepp som är relevanta för medicinsk bildanalys och sammanfattas över 300 bidrag till fältet, varav de flesta dök upp under det senaste året. Vi undersöker användningen av djupinlärning för bildklassificering, objektdetektering, segmentering, registrering och andra uppgifter. Kortfattade översikter ges av studier per applikationsområde: neuro, retinal, pulmonell, digital patologi, bröst, hjärta, buk, muskuloskeletal. Vi avslutar med en sammanfattning av den senaste tekniken, en kritisk diskussion om öppna utmaningar och riktningar för framtida forskning.
|
Nyligen, djupa neurala nätverk har antagits i medicinska bildinlärning uppgifter och ge den toppmoderna prestanda i många medicinska bildproblem REF.
| 2,088,679 |
A Survey on Deep Learning in Medical Image Analysis
|
{'venue': 'Med Image Anal. (2017) 42:60-88', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']}
| 14,463 |
Förhållanden mellan objekt spelar en avgörande roll för bildförståelsen. Trots den stora framgången med djupinlärningsteknik i att känna igen enskilda objekt, är resonemang om relationer mellan objekt fortfarande en utmanande uppgift. Tidigare metoder behandlar ofta detta som ett klassificeringsproblem, med tanke på varje typ av relation (t.ex. "ride") eller varje distinkt visuell fras (t.ex. "personridhäst") som kategori. Sådana metoder ställs inför betydande svårigheter som orsakas av den stora mångfalden av utseende för varje typ av relationer eller det stora antalet distinkta visuella fraser. Vi föreslår en integrerad ram för att ta itu med detta problem. Kärnan i denna ram är Deep Relational Network, en ny formulering som utformats särskilt för att utnyttja de statistiska beroendena mellan objekt och deras relationer. När det gäller två stora datamängder uppnår den föreslagna metoden betydande förbättringar jämfört med den senaste tekniken.
|
Dai m.fl. I REF föreslås ett relationsnätverk för att utnyttja de statistiska beroendena mellan objekt och deras relationer.
| 2,634,827 |
Detecting Visual Relationships with Deep Relational Networks
|
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
| 14,464 |
Reputation är en värdefull tillgång i online sociala liv och det har dragit till sig ökad uppmärksamhet. Hur man utvärderar användarnas rykte i online-klassificeringssystem är särskilt viktigt på grund av förekomsten av spamming attacker. För att ta itu med denna fråga har hittills en rad olika metoder föreslagits, bland annat nätverksbaserade metoder, kvalitetsbaserade metoder och gruppbaserad rangordningsmetod. I detta dokument föreslår vi en iterativ gruppbaserad rankningsmetod (IGR) genom att införa en iterativ ryktesfördelningsprocess i den ursprungliga gruppbaserade rankningsmetoden (GR). Mer specifikt har användare med högre anseende högre vikter när det gäller att dominera motsvarande gruppstorlekar. Användarnas rykte och motsvarande gruppstorlekar uppdateras iterativt tills de blir stabila. Resultaten från två verkliga datamängder tyder på att den föreslagna IGR-metoden har bättre prestanda och att dess robusthet avsevärt förbättras jämfört med den ursprungliga GR-metoden. Vårt arbete lyfter fram den positiva roll som användares grupperingsbeteende har i riktning mot en bättre ryktesbedömning.
|
Gao och Zhou REF föreslog en iterativ gruppbaserad rankningsmetod för att utvärdera användarnas rykte som baseras på de viktade storlekarna hos användarvärderingsgrupperna i online-klassificeringssystem.
| 15,734,236 |
Evaluating user reputation in online rating systems via an iterative group-based ranking method
|
{'venue': 'Physica A: Statistical Mechanics and its Applications. 473 (2017): 546-560', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Physics']}
| 14,465 |
Nya framsteg av programvara definierade nätverk och optisk switching teknik gör det möjligt att programmera nätverks stacken hela vägen från fysisk topologi till flödesnivå trafikkontroll. I detta dokument utnyttjar vi kombinationen av SDN-styrenhet med optisk koppling för att utforska den snäva integrationen av applikation och nätverksstyrning. Vi studerar särskilt run-time nätverkskonfiguration för big data applikationer för att gemensamt optimera applikationens prestanda och nätverksutnyttjande. Vi använder Hadoop som exempel för att diskutera den integrerade nätverksstyrningsarkitekturen, jobbplanering, topologi och routing konfigurationsmekanismer för Hadoop jobb. Vår analys tyder på att en sådan integrerad kontroll har stor potential att förbättra applikationens prestanda med relativt små konfigurering overhead. Vi tror att vår studie visar på ett tidigt löfte om att uppnå det långsiktiga målet om stram nätverks- och applikationsintegration med hjälp av SDN.
|
En integrerad styrarkitektur för SDN controller och MapReduce schemaläggare diskuteras i REF.
| 3,455,703 |
Programming your network at run-time for big data applications
|
{'venue': "HotSDN '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,466 |
Röstning är inslaget i ett demokratiskt samhälle och beslutsprocessen, tenderar att uppnå filosofin om demokratisk politik genom att ha allmänheten som är berättigade att rösta för kompetenta kandidater eller ledare. Med den snabba utvecklingen av teknologier och nätverkstillämpningar, har elektroniseringen aktivt främjats globalt under den sociala omvandlingsperioden som begreppet elektronisk röstning vidare härleds. De stora fördelarna med elektroniska omröstningar, jämfört med traditionella omröstningar, ligger i den elektroniska röstningens rörlighetsstyrka, vilket minskar en stor mängd valkostnader och ökar allmänhetens bekvämlighet. Elektroniska omröstningar gör det möjligt för väljare att rösta på Internet som inte bara är klimat- och lokaliseringsrestriktioner att övervinna, utan valdeltagandet ökar också och rösttiden förkortas för allmänheten. Med utvecklingen under de senaste tre decennierna ger elektronisk röstning enastående resultat teoretiskt och praktiskt. Det är dock beklagligt att elektroniska omröstningssystem fortfarande inte kan vara helt öppna på grund av lockelser från pengar och hot. Människor att locka av pengar och hot skulle bekräfta väljarna följer sina instruktioner genom olika metoder att fler faktorer skulle visas på valresultat, vilket påverkar kvaliteten och rättvisan i valet. I denna studie syftar detta projekt till att utforma ett elektroniskt röstningssystem som faktiskt skulle kunna försvara väljarnas fria vilja så att lockbete av pengar och hot skulle misslyckas. Dessutom föreslås ett elektroniskt röstningssystem baserat på Elliptic Curve Cryptography för att säkerställa effektiviteten och säkerheten, och Ringsignatur och Signcryption tillämpas för att minska datorkostnaderna. Dessutom fokuserar detta projekt också på att tillämpa röstningssystem på mobila enheter. Som systemets effektivitet och säkerhet betonas behöver väljarna inte delta i valet, utan helt enkelt rösta med smarta telefoner, iPads och datorer. Rösterna beräknas automatiskt och verifieras resultatet av att röstsedlarna inte nödvändigtvis skrivs ut, utskriften av valbrev minskas och manuell hantering ställs in. En sådan metod skulle effektivt minska röstkostnaderna och öka den ekonomiska effektiviteten.
|
Hsiao m.fl. REF erbjöd ett e-röstningssystem baserat på ringens anonyma signcryption, som insåg anonymitet och rättvisa.
| 113,933,741 |
Electronic voting systems for defending free will and resisting bribery and coercion based on ring anonymous signcryption scheme
|
{'venue': None, 'journal': 'Advances in Mechanical Engineering', 'mag_field_of_study': ['Engineering']}
| 14,467 |
Abstract-Mapping av parallella applikationer på nätverket topologin blir allt viktigare på stora superdatorer. Topologi medveten kartläggning kan minska humle resa med meddelanden på nätverket och därmed minska tvist, vilket kan leda till bättre prestanda. Detta papper diskuterar heuristiska tekniker för att kartlägga applikationer med oregelbundna kommunikationsgrafer till mesh och torus topologier. Parallella koder med oregelbunden kommunikation utgör en viktig klass av tillämpningar. Ostrukturerade nättillämpningar är ett klassiskt exempel på koder med oregelbundna kommunikationsmönster. Eftersom karteringsproblemet är NP-hard, presenterar denna uppsats snabba heuristiska-baserade algoritmer. Dessa heuristiker är en del av ett större ramverk för automatisk kartläggning av parallella tillämpningar. Vi utvärderar heuristikerna i detta dokument när det gäller minskningen av genomsnittligt humle per byte. De heuristiker som diskuteras här är tillämpliga på de flesta parallella tillämpningar eftersom oregelbundna grafer utgör den mest allmänna kategorin av kommunikationsmönster. Vissa heuristiker kan också enkelt utvidgas till andra nätverkstopologier.
|
Heuristiska tekniker för att kartlägga applikationer med oregelbunden kommunikation grafer till mesh och torus topologier utvecklades, och några av dem även dra nytta av den fysiska koordinat konfigurationen av de tilldelade noderna REF.
| 16,612,638 |
Heuristic-Based Techniques for Mapping Irregular Communication Graphs to Mesh Topologies
|
{'venue': '2011 IEEE International Conference on High Performance Computing and Communications', 'journal': '2011 IEEE International Conference on High Performance Computing and Communications', 'mag_field_of_study': ['Computer Science']}
| 14,468 |
Abstract Vår värld består inte bara av föremål och scener utan också av material av olika slag. Att kunna känna igen de material som omger oss (t.ex. plast, glas, betong) är viktigt för både människor och datorseendesystem. Tyvärr har materialen inte uppmärksammats särskilt mycket i den visuella igenkänningslitteraturen, och mycket få system för datorseende har utformats speciellt för att känna igen material. I detta dokument presenterar vi ett system för att känna igen materialkategorier från enstaka bilder. Vi föreslår en uppsättning av låga och medelstora bildfunktioner som bygger på studier av mänskligt materialigenkänning, och vi kombinerar dessa funktioner med en SVM klassificering. Vårt system överträffar ett toppmodernt system (Varma och Zisserman, TPAMI 31) (lätt. Men när vi tar hänsyn till den lokala naturen av våra bildfunktioner och de ytegenskaper de mäter (t.ex. färg, textur, lokal form), vårt system konkurrerar mänskliga prestanda. Vi föreslår att framtida framsteg i materiellt erkännande kommer från: 1) en djupare förståelse av rollen av icke-lokala ytegenskaper (t.ex. utvidgade höjdpunkter, objektidentitet), och 2) ansträngningar för att modellera sådana icke-lokala ytegenskaper i bilder.
|
En uppsättning av låg- och medelnivå perceptuellt inspirerade visuella funktioner introduceras av REF för texturigenkänning.
| 1,183,157 |
Recognizing Materials Using Perceptually Inspired Features
|
{'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science', 'Medicine']}
| 14,469 |
På senare tid har det blivit viktigt att förbättra HPC-maskinernas energieffektivitet. Som ett resultat av detta har intresset för att använda powerscalable kluster, där frekvens och spänning kan ändras dynamiskt, ökat. På kraftskalbara kluster finns en möjlighet att spara energi med liten eller ingen förlust av prestanda när beräkningsbelastningen inte är helt balanserad. Denna situation inträffar ofta, eftersom balansering belastning mellan noder är ett av de långvariga problem i parallell och distribuerad dator. I detta dokument presenterar vi ett system som heter Jitter, som minskar frekvensen på noder som tilldelas mindre beräkning och därför har lat tid. Detta sparar energi på dessa noder, och målet med Jitter är att försöka se till att de anländer "just i tid" så att de undviker att öka den totala verkställighetstiden. Till exempel, i Aztec, från ASCI Purple-sviten, använder vår algoritm 8% mindre energi samtidigt som exekveringstiden ökar med bara 2,6%.
|
Kappiah REF presenterade ett system som hette Jitter (Just-in-time DVSF).
| 1,653,588 |
Just In Time Dynamic Voltage Scaling: Exploiting Inter-Node Slack to Save Energy in MPI Programs
|
{'venue': "ACM/IEEE SC 2005 Conference (SC'05)", 'journal': "ACM/IEEE SC 2005 Conference (SC'05)", 'mag_field_of_study': ['Computer Science']}
| 14,470 |
Abstrakt. Nya insatser i programvarudefinierade nätverk, såsom OpenFlow, ger aldrig tidigare skådad tillgång till vidarebefordringsplan för nätverksutrustning. När man bygger ett nätverk baserat på OpenFlow måste man dock ta hänsyn till prestandaegenskaperna hos specifika OpenFlow switch-implementationer. I detta dokument presenterar vi OFLOPS, ett öppet och generiskt programvaruramverk som gör det möjligt att utveckla tester för OpenFlow-aktiverade strömbrytare, som mäter kapaciteten och flaskhalsarna mellan växelns framåtriktade motor och fjärrstyrningsapplikationen. OFLOPS kombinerar hårdvaruinstrumentering med ett extensibelt programvaruramverk. Vi använder OFLOPS för att utvärdera aktuella OpenFlow switch implementeringar och göra följande observationer: (i) Byta prestanda för flöden beror på tillämpade åtgärder och firmware. (ii) Nuvarande OpenFlow-implementeringar skiljer sig avsevärt åt i fråga om flödesuppdateringar och kapacitet för trafikövervakning. iii) Korrekt OpenFlow-kommandot kan endast observeras via dataplanet. Dessa observationer är avgörande för att förstå tillämpligheten av OpenFlow i samband med specifika användningsfall, som har krav i form av vidarebefordran tabellkonsistens, flödesinställning latens, flöde utrymme granularitet, paketmodifiering typer, och / eller trafikövervakning förmåga.
|
OFLOPS REF är ett testverktyg för OpenFlow-brytare.
| 741,559 |
OFLOPS: An Open Framework for OpenFlow Switch Evaluation
|
{'venue': 'PAM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,471 |
Abstract-I trådlösa mesh nätverk, den end-to-end genomströmningen av trafikflöden beror på banans längd, dvs. ju högre antalet humle, desto lägre blir genomströmningen. I detta dokument introduceras en rättvis end-to-end bandbreddsalgoritm (FEBA) för att lösa detta problem. FEBA är implementerat på det medium passerkontrollskiktet (MAC) av enkelradio, flera kanaler IEEE 802.16 mesh noder, som drivs i ett distribuerat samordnat schemaläggningsläge. FEBA förhandlar bandbredd bland grannar för att tilldela en rättvis andel proportionellt till en angiven vikt för varje end-to-end trafikflöde. På så sätt betjänas trafikflödena på ett differentierat sätt, med högre prioriterade trafikflöden tilldelas mer bandbredd i genomsnitt än de lägre prioriterade trafikflödena. I själva verket, en nod begäran / beviljar bandbredd från / till sina grannar på ett round-robin-sätt där mängden tjänst beror på både belastningen på sina olika länkar och prioriteringen av för närvarande aktiva trafikflöden. Om flera kanaler är tillgängliga delas de alla jämnt för att öka nätkapaciteten på grund av frekvensåteranvändning. FEBA:s prestanda utvärderas genom omfattande simuleringar. Det visas att trådlösa resurser delas rättvist mellan de bästa trafikflödena, medan multimediaströmmarna tillhandahålls med en differentierad tjänst som möjliggör servicekvalitet.
|
I REF beskriver författarna en rättvis end-to-end bandbreddsalgoritm (FEBA) baserad på centraliserad schemaläggning i 802.16 mesh nätverk, där mesh-BS allokerar bandbredd baserat på trafikkraven.
| 10,025,804 |
FEBA: A Bandwidth Allocation Algorithm for Service Differentiation in IEEE 802.16 Mesh Networks
|
{'venue': 'IEEE/ACM Transactions on Networking', 'journal': 'IEEE/ACM Transactions on Networking', 'mag_field_of_study': ['Computer Science']}
| 14,472 |
Vi beskriver en ny metod för att visualisera ämnen, distributionerna över termer som automatiskt extraheras från stora textkorpora med latenta variabla modeller. Vår metod finner betydande n-gram relaterade till ett ämne, som sedan används för att hjälpa till att förstå och tolka den underliggande distributionen. Jämfört med den vanliga visualiseringen, som helt enkelt listar de mest sannolika aktuella termerna, ger de flerordsuttrycken ett bättre intuitivt intryck för vad ett ämne handlar om. Vår strategi bygger på en språkmodell av godtyckliga längduttryck, där vi utvecklar en ny metod baserad på inbäddade permutationstester för att hitta viktiga fraser. Vi visar att denna metod överträffar den mer standardiserade användningen av χ 2 och sannolikhetskvot tester. Vi illustrerar ämnet presentationer om corpora av vetenskapliga abstracts och nyhetsartiklar.
|
Syftet är att hjälpa användare att förstå ämnen tydligt, Blei och Lafferty REF beskrev en metod för att visualisera ämnen förlänga LDA-modellen för att generera multi-word distribution av ämnen.
| 18,352,657 |
Visualizing Topics with Multi-Word Expressions
|
{'venue': None, 'journal': 'arXiv: Machine Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,473 |
Medan maskinvaruinstruktionscache är närvarande i praktiskt taget alla allmänna ändamål och högpresterande mikroprocessorer idag, många inbäddade processorer använder SRAM eller reptåliga minnen istället. Dessa är enkla matrisminne strukturer som är direkt adresserade och explicit hanteras av programvara. Jämfört med maskinvarucache med samma datakapacitet är de mindre, har kortare åtkomsttider och förbrukar mindre energi per tillgång. Tillgångstider är också lättare att förutsäga med enkla minnen eftersom det inte finns någon möjlighet till en "miss". Å andra sidan är de svårare för programmeraren att använda eftersom de inte hanteras automatiskt. I det här dokumentet presenterar vi ett programvarusystem som gör det möjligt att automatiskt hantera hela eller delar av ett SRAM- eller scratchpad-minne som en cache. Detta system ger programmeringskomforten av en cache för processorer som saknar dedikerad cachehårdvara. Det har implementerats för en verklig processor och körs på riktig hårdvara. Våra resultat visar att en programvarubaserad instruktionscache kan byggas som ger prestanda inom 10% av en traditionell maskinvarucache på många riktmärken samtidigt som du använder ett billigare, enklare SRAM-minne. På samma riktmärken är energiförbrukningen upp till 3 % lägre än med hjälp av en maskinvarucache.
|
Det mest relaterade arbetet tar upp programvaruhanterade instruktionscacher REF för processorer som saknar en instruktionscache.
| 5,656,827 |
Software-based instruction caching for embedded processors
|
{'venue': 'ASPLOS XII', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,474 |
Många djupa neurala nätverk tränas på naturliga bilder uppvisar ett märkligt fenomen gemensamt: på det första lagret de lär sig funktioner som liknar Gabor filter och färg blobs. Sådana första lager funktioner verkar inte vara specifika för en viss datauppsättning eller uppgift, men allmänt i det att de är tillämpliga på många datauppsättningar och uppgifter. Funktionerna måste så småningom övergå från allmän till specifik av det sista skiktet av nätverket, men denna övergång har inte studerats i stor utsträckning. I detta papper kvantifierar vi experimentellt generalitet kontra specificitet av neuroner i varje lager av ett djupt konvolutionellt neuralt nätverk och rapporterar några överraskande resultat. Överförbarheten påverkas negativt av två olika problem: (1) specialiseringen av högre lagerneuroner till deras ursprungliga uppgift på bekostnad av prestanda på måluppgiften, vilket förväntades, och (2) optimering svårigheter relaterade till delning av nätverk mellan co-anpassade neuroner, som inte förväntades. I ett exempel nätverk tränas på ImageNet, visar vi att någon av dessa två frågor kan dominera, beroende på om funktioner överförs från botten, mitten eller toppen av nätverket. Vi dokumenterar också att överförbarheten av funktioner minskar när avståndet mellan basuppgiften och måluppgiften ökar, men att överföra funktioner även från avlägsna uppgifter kan vara bättre än att använda slumpmässiga funktioner. Ett sista överraskande resultat är att initiering av ett nätverk med överförda funktioner från nästan alla lager kan ge en boost till generalisering som dröjer även efter finjustering till målet dataset.
|
Feature överförbarhet av djupa neurala nätverk har studerats ingående i REF.
| 362,467 |
How transferable are features in deep neural networks?
|
{'venue': 'Advances in Neural Information Processing Systems 27, pages 3320-3328. Dec. 2014', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,475 |
1 ägnas åt definitionen av en tillförlitlig modellering och modellbaserad utvärderingsmetod baserad på UML-modeller. Det ska användas i de tidiga faserna av systemets design för att fånga systemtillförlitlighet attribut som tillförlitlighet och tillgänglighet, vilket ger riktlinjer för valet bland olika arkitektoniska och designlösningar. Vi visar hur strukturella UML-diagram kan bearbetas för att filtrera bort tillförlitlig information och hur en systemomfattande tillförlitlighetsmodell konstrueras. På grund av den modulära konstruktionen kan denna modell förfinas senare när mer detaljerad information blir tillgänglig. Vi diskuterar modellen förfining baserat på den allmänna resursmodellen, en förlängning av UML. Vi visar att pålitligheten modellen kan konstrueras automatiskt med hjälp av graf transformation tekniker.
|
I REF, som ligger närmare vår, Bondavalli et al. identifiera tillförlitlighetsattribut i systemets tidiga konstruktionsfaser och konstruera en tillförlitlighetsmodell (som tidsmässigt Petri Net) med hjälp av graftransformationsteknik i strukturella UML-diagram.
| 8,953,074 |
Stochastic dependability analysis of system architecture based on uml models
|
{'venue': 'Architecting Dependable Systems, LNCS–2667', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,476 |
Vi betraktar problemet med att få fram en global tolkning av en bild i form av en liten uppsättning släta kurvor.
|
Felzenszwalb m.fl. REF genererade en global tolkning av en bild i termer av en liten uppsättning framträdande jämna kurvor.
| 6,425,029 |
A Min-Cover Approach for Finding Salient Curves
|
{'venue': "2006 Conference on Computer Vision and Pattern Recognition Workshop (CVPRW'06)", 'journal': "2006 Conference on Computer Vision and Pattern Recognition Workshop (CVPRW'06)", 'mag_field_of_study': ['Computer Science']}
| 14,477 |
Abstract-Vi föreslår en ny legaliseringsmetod baserad på virtuell kontraarial förlust: ett nytt mått på lokal smidighet i utdatadistributionen. Virtuell kontraarial förlust definieras som robustheten i modellens bakre fördelning mot lokal perturbation runt varje inmatningspunkt. Vår metod liknar den kontradiktoriska träningen, men skiljer sig från den kontradiktoriska träningen genom att den bestämmer den kontradiktoriska riktningen endast baserat på utgångsfördelningen och att den är tillämplig på en semiövervakad inställning. Eftersom de riktningar i vilka vi slätar ut modellen är praktiskt taget kontradiktoriska, kallar vi vår metod virtuell kontradiktorisk utbildning (moms). Beräkningskostnaden för mervärdesskatt är relativt låg. För neurala nätverk, den ungefärliga gradienten av virtuella motgångar förlust kan beräknas med högst två par av framåt och bakåt propagationer. I våra experiment tillämpade vi moms på övervakad och halvövervakad inlärning på flera referensdatauppsättningar. Med ytterligare förbättringar baserade på entropiminimeringsprincipen uppnår vår moms toppmoderna prestanda på SVHN och CIFAR-10 för halvövervakade inlärningsuppgifter.
|
gmoms bygger på samma koncept som Virtual Adversarial Training (MOMS) REF.
| 17,504,174 |
Virtual Adversarial Training: a Regularization Method for Supervised and Semi-supervised Learning
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Medicine', 'Computer Science', 'Mathematics']}
| 14,478 |
Få tidigare arbeten studerar djup inlärning på punktuppsättningar. PointNet [20] är en pionjär i denna riktning. Men genom design PointNet inte fånga lokala strukturer som induceras av de metriska rymdpunkter lever i, begränsar sin förmåga att känna igen finkorniga mönster och generalisering till komplexa scener. I detta arbete introducerar vi en hierarkisk neurala nätverk som tillämpar PointNet rekursivt på en bonad partitionering av ingångspunkten uppsättning. Genom att utnyttja metriska rymdavstånd kan vårt nätverk lära sig lokala funktioner med ökande kontextuella skalor. Med ytterligare observation att punktuppsättningar vanligtvis provtas med varierande densiteter, vilket resulterar i kraftigt minskad prestanda för nätverk utbildade på enhetliga densiteter, föreslår vi nya uppsättningar lärlager för att adaptivt kombinera funktioner från flera skalor. Experiment visar att vårt nätverk som kallas PointNet++ kan lära sig djup punktuppsättningsfunktioner effektivt och robust. Framför allt har resultat som är betydligt bättre än den senaste tekniken uppnåtts på utmanande riktmärken för 3D-punktmoln.
|
PointNet++ REF introducerar ett hierarkiskt neuralt nätverk för punktuppsättning klassificering.
| 1,745,976 |
PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metric Space
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,479 |
AADL är en standard för modellering av inbyggda system som används i stor utsträckning inom avionik och andra säkerhetskritiska tillämpningar. AADL-standarden saknar dock för närvarande en formell semantik, vilket starkt begränsar både entydig kommunikation mellan modellutvecklare och utveckling av simulatorer och formella analysverktyg. I detta arbete presenterar vi en formell realtid omskrivning logik semantik för en beteendemässiga delmängd av AADL som innehåller de väsentliga aspekterna av dess beteende bilaga. Våra semantik är direkt körbara i Real-Time Maude och ger en AADL simulator och LTL modell kontroll verktyg kallas AADL2Maude. AADL2Maude är integrerad med OSATE, så att OSATEs kodgenereringsanläggning används för att automatiskt omvandla AADL-modeller till deras motsvarande Real-Time Maude-specifikationer. Sådana transformerade modeller kan sedan köras och modellen kontrolleras av Real-Time Maude. Vi presenterar våra semantik och två fallstudier där säkerhetskritiska egenskaper verifieras i AADL2Maude.
|
AADL2Maude verktyg REF koncentrerar sig på tvetydigheten av vissa AADL semantik och därmed intro-duces en realtid omskrivning logik semantik, för en beteendemässig sub-uppsättning av AADL.
| 6,395,009 |
Formal semantics and analysis of behavioral AADL models in real-time maude
|
{'venue': 'FMOODS/FORTE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,480 |
Trådlösa sensornätverk möter akuta säkerhetsproblem i applikationer som slagfältsövervakning. En central felpunkt i ett sensornätverk är basstationen, som fungerar som en samlingsplats för sensordata. I detta dokument undersöker vi två attacker som kan leda till isolering eller misslyckande av basstationen. I en uppsättning attacker isoleras basstationen genom att blockera kommunikationen mellan sensornoder och basstationen, t.ex. genom DOS attacker. I den andra attacken, platsen för basstationen härledas genom att analysera datatrafiken mot basstationen, vilket kan leda till störning och / eller upptäckt och förstörelse av basstationen. För att försvara sig mot dessa attacker föreslås två säkra strategier. För det första, säker multi-path routing till flera destination basstationer är utformad för att ge intrång tolerans mot isolering av en basstation. För det andra föreslås strategier mot trafikanalys för att hjälpa till att dölja placeringen av basstationen från tjuvlyssnare. En prestandautvärdering tillhandahålls för ett simulerat sensornätverk, samt mätningar av kryptografiska overhead på verkliga sensornoder.
|
I REF, säker multi-path routing till flera destination basstationer är utformad för att ge intrång tolerans mot isolering av en basstation.
| 5,584,688 |
Intrusion tolerance and anti-traffic analysis strategies for wireless sensor networks
|
{'venue': 'International Conference on Dependable Systems and Networks, 2004', 'journal': 'International Conference on Dependable Systems and Networks, 2004', 'mag_field_of_study': ['Computer Science']}
| 14,481 |
En klass av senaste metoder för att generera bilder, som kallas Generativa Adversarial Networks (GAN), har använts för att generera imponerande realistiska bilder av objekt, sovrum, handskrivna siffror och en mängd andra bildsätt. Typiska GAN-baserade metoder kräver dock stora mängder utbildningsdata för att fånga upp mångfalden i bildsättet. I detta dokument föreslår vi DeLigan -en ny GAN-baserad arkitektur för olika och begränsade utbildningsdatascenarier. I vårt tillvägagångssätt omparameteriserar vi det latenta generativa utrymmet som en blandningsmodell och lär oss blandningsmodellens parametrar tillsammans med GAN-parametrarna. Denna till synes enkla ändring av GAN-ramen är förvånansvärt effektiv och resulterar i modeller som möjliggör mångfald i genererade prover, även om den är utbildad med begränsade data. I vårt arbete visar vi att DeLi-GAN kan generera bilder av handskrivna siffror, objekt och handritade skisser, alla med hjälp av begränsade mängder data. För att kvantitativt karakterisera mångfalden av genererade prover inom klassen introducerar vi också en modifierad version av "inception-score", ett mått som har visat sig korrelera väl med mänsklig bedömning av genererade prover.
|
Gurumurthy m.fl. REF utvecklade en modell för att anta en blandningsmodell för att parameterisera latent generativ utrymme och under tiden gemensamt lära sig parametrarna för denna blandning modell och GANs.
| 24,527,328 |
DeLiGAN: Generative Adversarial Networks for Diverse and Limited Data
|
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
| 14,482 |
Vi presenterar utformningen och genomförandet av VISAGE (VISual AGgregator och Explorer), ett frågegränssnitt för klinisk forskning. Vi följer en användarcentrerad utvecklingsstrategi och införlivar visuella, ontologiska, sökbara och explorativa funktioner i tre sammanlänkade komponenter: Query Builder, Query Manager och Query Explorer. Den Query Explorer ger nya on-line data mining kapacitet för ändamål som hypotesgenerering eller kohortidentifiering. VISAGE-frågegränssnittet har implementerats som en viktig del av Fysio-MIMI, ett NCRR-finansierat pilotprojekt på flera platser. Preliminära utvärderingsresultat visar att VISAGE är effektivare för frågekonstruktion än webbklienten i2b2.
|
Zhang m.fl. REF har utformat och implementerat ett frågegränssnitt VISAGE (VISual AGgregator och Explorer) för frågepatientkohorter.
| 14,822,364 |
VISAGE: A Query Interface for Clinical Research
|
{'venue': 'Summit on Translational Bioinformatics', 'journal': 'Summit on Translational Bioinformatics', 'mag_field_of_study': ['Medicine', 'Computer Science']}
| 14,483 |
Patch tidigare har blivit en viktig komponent i bildrenovering. En kraftfull strategi i denna kategori av återställningsalgoritmer är den populära förväntade Patch Log-likelihood (EPLL) algoritm. EPLL använder en Gaussian blandning modell (GMM) tidigare lärt sig på ren bild fläckar som ett sätt att regularisera skadade fläckar. I detta papper visar vi att en generaliserad Gaussian blandning modell (GGMM) fångar den underliggande fördelningen av patchar bättre än en GMM. Även om GGMM är en kraftfull före att kombinera med EPLL, den icke-Gaussianity av dess komponenter innebär stora utmaningar som ska tillämpas på en beräkningsintensiv process av bildrenovering. Specifikt måste varje plåster genomgå ett steg för klassificering av plåstret och ett steg för krympning. Dessa två steg kan effektivt lösas med en GMM tidigare men är beräkningsmässigt opraktiska vid användning av en GGMM tidigare. I detta dokument ger vi approximationer och beräkningsrecept för snabb utvärdering av dessa två steg, så att EPLL kan bädda in en GGMM innan på en bild med mer än tiotusentals patchar. Vårt huvudsakliga bidrag är att analysera exaktheten i våra approximationer baserat på grundlig teoretisk analys. Våra utvärderingar visar att GGMM föregående genomgående är en bättre passform för att modellera bild patch distribution och presterar bättre i genomsnitt i bild denoiserande uppgift.
|
Med tanke på varje plåster har en patch klassificering steg och en krympning steg, Alban et al. REF tillhandahåller approximationer och beräkningsrecept för att utvärdera dessa två steg genom att inbädda en generaliserad Gaussisk blandning modell i EPLL för en bild med mer än tiotusentals patchar.
| 25,824,916 |
Image restoration with generalized Gaussian mixture model patch priors
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Engineering', 'Mathematics']}
| 14,484 |
Vi anser att optimering av sammansatta objektiva funktioner, dvs., av formen f (x) = g(h(x)), där h är en svart-box derivat-fri dyr att värdera funktion med vektor-värderade utgångar, och g är en billig-att-värdera real-värderad funktion. Även om dessa problem kan lösas med standard Bayesian optimering, föreslår vi ett nytt tillvägagångssätt som utnyttjar den sammansatta strukturen av den objektiva funktionen för att avsevärt förbättra provtagningseffektiviteten. Våra tillvägagångssätt modeller h med hjälp av en multi-output Gaussian process och väljer var man kan ta prov med hjälp av den förväntade förbättring utvärderas på den implicita icke-Gaussian posterior på f, som vi kallar förväntad förbättring för sammansatta funktioner (EI-CF). Även om EI-CF inte kan beräknas i sluten form, ger vi en ny stokastisk gradient uppskattning som tillåter dess effektiva maximering. Vi visar också att vårt tillvägagångssätt är asymptotiskt konsekvent, d.v.s. att det återvinner en globalt optimal lösning när provtagningsansträngningen växer till oändlighet, vilket generaliserar tidigare konvergensresultat för klassisk förväntad förbättring. Numeriska experiment visar att vårt tillvägagångssätt dramatiskt överträffar standard Bayesian optimering riktmärken, vilket minskar enkel ånger av flera storleksordningar.
|
Vår föreslagna provtagningspolicy generaliserar också den förväntade förbättringen för sammansatta funktioner REF, som kan erhållas som ett specialfall när U är känd.
| 149,447,211 |
Bayesian Optimization of Composite Functions
|
{'venue': 'In Proceedings of the 36th International Conference on Machine Learning, PMLR 97:354-363, 2019', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,485 |
Bildanmärkning och markering är kärnan i den medicinska tolkningen i både klinisk och forskningsmiljö. Digitala medicinska bilder hanteras med DICOM standardformat. Medan DICOM innehåller en stor mängd meta-data om vem, var, och hur bilden förvärvades, DICOM säger lite om innehållet eller betydelsen av pixeldata. En bildnotation är den förklarande eller beskrivande informationen om pixeldata för en bild som genereras av en människa eller maskinobservatör. En bildmarkering är de grafiska symboler som placeras över bilden för att avbilda en anteckning. Medan DICOM är standard för medicinsk bild förvärv, manipulation, överföring, lagring och display, det finns inga standarder för bild annotering och markering. Många system förväntar sig att notation ska rapporteras muntligt, medan markeringar lagras i grafiska överlägg eller egna format. Detta gör det svårt att extrahera och beräkna med båda. Målet med projektet Annotation and Image Markup (AIM) är att utveckla en mekanism för att modellera, fånga och serialisera bildannotering och markeringsdata som kan användas som standard av den medicinska bildvärlden. AIM-projektet producerar både mänskliga och maskinläsbara artefakter. Detta dokument beskriver AIM-informationsmodell, scheman, programvarubibliotek och verktyg för att förbereda forskare och utvecklare för deras användning av AIM.
|
Ett annat viktigt relaterat arbete är standard REF (Annotation and Image Markup, AIM) som tillhandahåller en datamodell för att fånga bildanmärkning och markeringsdata.
| 5,365,956 |
The caBIG™ Annotation and Image Markup Project
|
{'venue': 'Journal of Digital Imaging', 'journal': 'Journal of Digital Imaging', 'mag_field_of_study': ['Computer Science', 'Medicine']}
| 14,486 |
Abstract-Obemannade Areal Vehicles (UAV) kan ge betydande bidrag till informationsinsamling i militära uppdrag. UAVs kan användas för att fånga både full rörelse video och stillbild av specifika mål platser inom området av intresse. För att förbättra effektiviteten i ett spaningsuppdrag är det viktigt att besöka så många intressanta målplatser som möjligt, med beaktande av driftsrestriktioner i samband med bränsleanvändning, väderförhållanden och varaktighet för UAV. Vi modellerar detta planeringsproblem som det välkända orienteringsproblemet, vilket är en generalisering av problemet med resande säljare. Med tanke på osäkerheten i den militära operativa miljön krävs robusta planeringslösningar. Som sådan tar vår modell hänsyn till osäkerheten i bränsleanvändningen mellan mål (t.ex. på grund av väderförhållanden) och osäkerheten om vikten av att besöka specifika målplatser. Vi rapporterar resultat med hjälp av olika osäkerhetsuppsättningar som anger den grad av osäkerhet mot vilken någon genomförbar lösning kommer att skyddas. Vi jämför också sannolikheten för att en lösning är möjlig för den robusta lösningen å ena sidan och den lösning som hittas med genomsnittlig bränsleförbrukning och förväntat värde av information å andra sidan. På så sätt visar vi hur hållbarheten i ett UAV-uppdrag kan förbättras avsevärt.
|
Evers och Al. behandlar täckningsproblem och beaktar osäkerheten i bränsleanvändning och väderförhållanden för att ge en robust planeringslösning REF.
| 17,569,264 |
Robust UAV mission planning
|
{'venue': None, 'journal': 'Annals of Operations Research', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,487 |
Abstract-The Internet of Things (IoT) föreställer sig cross-domain applikationer som kombinerar digitala tjänster med tjänster som tillhandahålls av resurs-konstruerade inbyggda enheter som ansluter till den fysiska världen. Sådana smarta miljöer kan bestå av ett stort antal enheter från olika leverantörer. Detta kräver en hög grad av frikoppling och varken enheter eller användare kan förlita sig på en förkunskaper om tjänsten API:er. Semantiska servicebeskrivningar är tillämpliga på heterogena applikationsområden på grund av deras höga abstraktionsnivå och kan möjliggöra automatisk tjänstesammansättning. Denna uppsats visar hur RESTdesc beskrivning format och semantiska resonemang kan tillämpas för att skapa webbliknande mashups i smarta miljöer. Vår strategi stöder mycket dynamiska miljöer med resursbegränsade IoT-enheter där tjänster kan bli otillgängliga på grund av enhetens rörlighet, begränsad energi, eller nätverksstörningar. Koncepten stöds av en konkret systemarkitektur vars genomförande är offentligt tillgängligt. Det används för att utvärdera semantik-baserade tillvägagångssätt i ett realistiskt IoT-relaterat scenario. Resultaten visar att nuvarande resonerare kan producera medelstora IoT mashups, men kämpa med tillståndsrymdexplosion när fysiska stater blir en del av proofing processen.
|
Kovatsch m.fl. REF visade hur RESTdesc och semantiska resonemang kan tillämpas för att skapa web IoT mashups bland resurs-konstruerade enheter och tjänster.
| 14,430,985 |
Practical semantics for the Internet of Things: Physical states, device mashups, and open questions
|
{'venue': '2015 5th International Conference on the Internet of Things (IOT)', 'journal': '2015 5th International Conference on the Internet of Things (IOT)', 'mag_field_of_study': ['Computer Science']}
| 14,488 |
Överväga ett klassificeringsproblem där vi inte har tillgång till etiketter för enskilda utbildningsexempel, utan bara har genomsnittliga etiketter över underbefolkningar. Vi ger praktiska exempel på detta upplägg och visar hur dessa klassificeringsuppgifter med fördel kan analyseras som svagt övervakade klusterproblem. Vi föreslår tre tillvägagångssätt för att lösa det svagt övervakade klusterproblemet, inklusive en latent variabelmodell som fungerar bra i våra experiment. Vi illustrerar våra metoder på en branschdatauppsättning som var den ursprungliga motivationen för denna forskning.
|
I likhet med det ovan nämnda arbetet med att lära av märkta proportioner anser REF att det är ett klassificeringsproblem utan tillgång till etiketter för enskilda utbildningsexempel, utan endast genomsnittliga etiketter över delpopulationer.
| 15,681,823 |
Weakly Supervised Clustering: Learning Fine-Grained Signals from Coarse Labels
|
{'venue': 'Annals of Applied Statistics 2015, Vol. 9, No. 2, 801-820', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,489 |
Den ökande tillgången till nätverksdata skapar en stor potential för kunskapsupptäckt från grafdata. I många applikationer ges vektorer utöver grafdata, där noder representerar enheter, kanter relationer mellan enheter och vektorer associerade med noderna representerar egenskaper hos enheter. Ofta funktioner och kanter innehåller kompletterande information. I sådana scenarier utlovar samtidig användning av båda datatyper mer meningsfulla och korrekta resultat. Utmed dessa linjer introducerar vi det nya problemet med gruvsammanhängande mönster från grafer med vektorer som kombinerar begreppen täta subgrafer och subrymdskluster till en mycket uttrycksfull problemdefinition. Ett sammanhållet mönster är en tät och ansluten subgraf som har homogena värden i ett tillräckligt stort subutrymme. Vi hävdar att denna problemdefinition är naturlig i att identifiera små samhällen i sociala nätverk och funktionella moduler i protein-protein interaktionsnätverk. Vi presenterar algoritmen CoPaM (Cohesive Mönster Miner), som utnyttjar olika beskärningsstrategier för att effektivt hitta alla maximal sammanhållna mönster. Vår teoretiska analys visar att CoPaM är korrekt och vår experimentella utvärdering visar dess effektivitet och effektivitet.
|
CoPaM-metoden REF minar täta och anslutna subgrafer med homogena värden i attributet subrymder genom effektiva beskärningsstrategier.
| 14,980,505 |
Mining Cohesive Patterns from Graphs with Feature Vectors
|
{'venue': 'SDM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,490 |
Abstract-Internet av saker trådlöst nätverk med långdistans, låg effekt och lågt genomströmning ökar som ett nytt paradigm som gör det möjligt att ansluta biljoner enheter effektivt. I sådana nätverk med låg effekt och bandbredd blir lokaliseringen mer utmanande. I detta arbete tar vi en närmare titt på de underliggande aspekterna av mottagna signalstyrka indikator (RSSI) baserad lokalisering i UNB långdistans IoT-nätverk såsom Sigfox. För det första, RSSI har använts för fingeravtryck lokalisering där RSSI mätningar av GPS-ankare noder har använts som landmärken för att klassificera andra noder i en av GPS-noder klasser. Genom mätningar visar vi att en platsklassificeringsnoggrannhet på 100% uppnås när klasserna av noder isoleras. När klasser närmar sig varandra visar våra mätningar att vi fortfarande kan uppnå en noggrannhet på 85%. Dessutom, när densiteten hos GPS-noder ökar, kan vi lita på peer-to-peer triangulation och därmed förbättra möjligheten att lokalisera noder med ett fel mindre än 20m från 20% till mer än 60% av noderna i vårt mätscenario. 90% av noderna är lokaliserade med ett fel på mindre än 50m i vårt experiment med icke-optimerade ankarknutor platser.
|
I REF presenteras en ny mätningsbaserad lokaliseringsmetod som utnyttjar förekomsten av några GPS-noder (t.ex. 1 % av noderna).
| 18,730,020 |
Localization in Long-range Ultra Narrow Band IoT Networks using RSSI
|
{'venue': '2017 IEEE International Conference on Communications (ICC)', 'journal': '2017 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,491 |
Webbproxy caching servrar spelar en nyckelroll i dagens webbinfrastruktur. Tidigare studier har visat att disk I/O är en av de största flaskhalsarna för proxyservrar. De flesta konventionella filsystem fungerar inte bra för proxyserver arbetsbelastningar och har höga overheads. Detta papper presenterar en ny, User-space, anpassad filsystem som kallas UCFS som drastiskt kan förbättra I/O prestanda proxyservrar. UCFS är en programvarukomponent på användarnivå i en proxyserver som hanterar data på en rådisk eller diskpartition. Eftersom hela systemet körs i användarutrymmet är det enkelt och billigt att implementera. Den har också god bärbarhet och underhållsbarhet. UCFS använder effektiva in-minnes meta-datatabeller för att eliminera nästan alla I/O overhead av meta-data sökningar och uppdateringar. Den innehåller också ett nytt filsystem som kallas Cluster-strukturerad File System (CFS). I likhet med de Log-strukturerade File Systems (LFS) använder CFS stora disköverföringar för att avsevärt förbättra diskskrivarprestandan. Men CFS kan också märkbart förbättra filläsning, och det genererar inte sopor. Omfattande simuleringsexperiment med hjälp av fem representativa verkliga spår visar att UCFS avsevärt kan förbättra proxyserverprestandan. UCFS uppnår till exempel 8-19 gånger bättre I/O-prestanda än den toppmoderna SQUID-servern som körs på ett Unix Fast File System (FFS), 4-7,5 gånger bättre än SQUID på asynkron FFS och 3-9 gånger bättre än den förbättrade SQUIDML.
|
UCFS REF tar detta tillvägagångssätt och det är den första att ta itu med långsamma disk I/O-problem på proxyservrarna.
| 6,945,306 |
UCFS – A Novel User-Space, High Performance, Custom File System for Web Proxy Servers
|
{'venue': 'IEEE Trans. Computers', 'journal': 'IEEE Trans. Computers', 'mag_field_of_study': ['Computer Science']}
| 14,492 |
Integrativbiologi (IB) använder experimentell eller beräknings kvantitativ teknik för att karakterisera biologiska system på molekylära, cellulära, vävnads- och populationsnivåer. IB innebär normalt integrering av data, kunskap och kapacitet över disciplinära gränser för att lösa komplexa problem. Vi identifierar en rad bioinformatiska problem som utgörs av tvärvetenskaplig integration: (i) dataintegration som kopplar samman strukturerade data över relaterade biomedicinska domäner; (ii) ontologiintegration som för jargonger, terminologier och taxonomier från olika discipliner till ett enhetligt nätverk av ontologier; (iii) kunskapsintegration som integrerar olika kunskapsfaktorer från flera källor; (iv) tjänsteintegration som bygger applikationer av tjänster som tillhandahålls av olika leverantörer. Vi hävdar att IB kan dra stor nytta av de integrationslösningar som möjliggörs av Semantic Web (SW) teknik. SW gör det möjligt för forskare att dela innehåll utanför gränserna för applikationer och webbplatser, vilket resulterar i en webb av data som är meningsfull och förståelig för alla datorer. I denna översyn ger vi inblick i hur SW-teknik kan användas för att bygga öppna, standardiserade och interoperabla lösningar för tvärvetenskaplig integration på global basis. Vi presenterar en rik uppsättning fallstudier i systembiologi, integrativ neurovetenskap, bio-farmaceutik och translationell medicin, för att belysa de tekniska egenskaperna och fördelarna med SW applikationer i IB.
|
Numera är semantisk teknik kärnan i många system som stöder dataintensiva forskningsområden, vilket är fallet med systembiologi, integrativ neurovetenskap, biofarmaka och translationell medicin, bara för att nämna några fall REF.
| 14,237,569 |
Semantic Web meets Integrative Biology: a survey
|
{'venue': 'Briefings in bioinformatics', 'journal': 'Briefings in bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
| 14,493 |
Moderna modeller av relationsextraktion för uppgifter som ACE bygger på övervakad inlärning av relationer från små handmärkta corpora. Vi undersöker ett alternativt paradigm som inte kräver märkta corpora, undvika domänberoende av ACEstyle algoritmer, och tillåta användning av corpora av alla storlekar. Våra experiment använder Freebase, en stor semantisk databas med flera tusen relationer, för att ge fjärrövervakning. För varje par av enheter som förekommer i någon Freebase relation, hittar vi alla meningar som innehåller dessa enheter i en stor omärkt corpus och extrahera textfunktioner för att träna en relation klassificerare. Vår algoritm kombinerar fördelarna med övervakad IE (kombinerar 400.000 bullriga mönster funktioner i en probabilistisk klassificering) och oövervakad IE (extraherar ett stort antal relationer från stora corpora av alla domäner). Vår modell kan extrahera 10 000 fall av 102 relationer med en precision på 67,6%. Vi analyserar också funktionen prestanda, visar att syntaktiska parse funktioner är särskilt användbart för relationer som är tvetydiga eller lexiskt avlägsna i sitt uttryck.
|
Enligt Ref kombinerar algoritmen fördelarna med övervakad ML och oövervakad ML.
| 10,910,955 |
Distant supervision for relation extraction without labeled data
|
{'venue': 'ACL-IJCNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,494 |
Gazetteers eller entitetsordlistor är viktiga kunskapsresurser för att lösa ett brett spektrum av NLP-problem, t.ex. Vi introducerar en ny metod för att automatiskt generera sökare från frölistor med hjälp av en extern kunskapsresurs, Wikipedia. Till skillnad från tidigare metoder utnyttjar vår metod det rika innehållet och olika strukturella element i Wikipedia, och förlitar sig inte på språk- eller domänspecifika kunskaper. Dessutom har vi empiriskt sett observerat en betydande förbättring av systemets noggrannhet jämfört med dem som använder utsädesglickare genom att tillämpa de utökade giktarna på en enhets extraktionsuppgift inom ett vetenskapligt område.
|
REF använder en ny metod för extraktion av en enhet för att automatiskt generera giretter från utsädeslistor med hjälp av Wikipedia som kunskapskälla.
| 14,467,084 |
A Novel Approach to Automatic Gazetteer Generation using Wikipedia
|
{'venue': "Proceedings of the 2009 Workshop on The People’s Web Meets NLP: Collaboratively Constructed Semantic Resources (People's Web)", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,495 |
Filterlistor används i stor utsträckning av annonsblockerare för att blockera annonser och andra former av oönskat innehåll i webbläsare. Dessa filterlistor är dock manuellt curated baserat på informella crowdsourced feedback, vilket för med sig ett betydande antal underhållsutmaningar. För att ta itu med dessa utmaningar föreslår vi en maskininlärningsmetod för automatisk och effektiv adblockering som kallas AdGraph. Vår strategi bygger på information som erhållits från flera lager av webbstacken (HTML, HTTP och JavaScript) för att träna en maskin lär klassificerare för att blockera annonser och spårare. Vår utvärdering på Alexa topp-10K webbplatser visar att AdGraph automatiskt och effektivt blockerar annonser och spårare med 97,7% noggrannhet. Vår manuella analys visar att AdGraph har bättre minne än filterlistor, det blockerar 16% fler annonser och spårare med 65% noggrannhet. Vi visar också att AdGraph är ganska robust mot kontradiktorisk obfuscation av utgivare och annonsörer som förbigår filterlistor.
|
AdGraph REF föreslår en övervakad maskininlärning lösning på flerskiktsgrafen som representerar interaktionen mellan HTML, HTTP och JavaScript på sidan för att identifiera annonser och spårare.
| 43,942,358 |
AdGraph: A Machine Learning Approach to Automatic and Effective Adblocking
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,496 |
Att matcha människor över icke-överlappande kameravyer, så kallad personåteridentifiering, är en utmaning på grund av bristen på rumsliga och tidsmässiga begränsningar och stora visuella förändringar som orsakas av variationer i siktvinkel, belysning, bakgrundsförlamning och ocklusion. För att ta itu med dessa utmaningar syftar de flesta tidigare tillvägagångssätt till att extrahera visuella egenskaper som är både distinkta och stabila under utseende förändringar. De flesta visuella egenskaper och deras kombinationer under realistiska förhållanden är dock varken stabila eller särskiljande och bör därför inte användas urskillningslöst. I detta dokument föreslår vi att personen återidentifieras som ett problem med distansundervisningen, som syftar till att lära sig det optimala avståndet som kan maximera matchningsnoggrannheten oavsett val av representation. I detta syfte introducerar vi en ny modell för Probabilistic Relative Distance Comparison (PRDC), som skiljer sig från de flesta befintliga metoder för distansundervisning, i stället för att minimera variation inom klassen samtidigt som den maximerar variation inom klassen, det syftar till att maximera sannolikheten för ett par äkta match med ett mindre avstånd än ett fel matchpar. Detta gör vår modell mer tolerant mot utseendeförändringar och mindre mottaglig för modellövermontering. Omfattande experiment utförs för att visa att 1) genom att formulera personens omidentifieringsproblem som ett problem för distansundervisning, kan märkbar förbättring av matchningsnoggrannheten uppnås mot konventionella personers omidentifieringsmetoder, vilket är särskilt viktigt när utbildningsprovet är litet, och 2) vårt PRDC överträffar inte bara befintliga metoder för distansundervisning utan också alternativa inlärningsmetoder som bygger på att öka och lära sig att rangordna.
|
Zheng m.fl. REF formulerad person omidentifiering som ett problem för distansundervisning.
| 13,619,630 |
Person re-identification by probabilistic relative distance comparison
|
{'venue': 'CVPR 2011', 'journal': 'CVPR 2011', 'mag_field_of_study': ['Computer Science']}
| 14,497 |
Antalet modeller för beräkningsförtroende har ökat snabbt under de senaste åren, men deras tillämpningar för automatiserad förtroendeutvärdering är fortfarande begränsade. Det största hindret är svårigheterna med att välja en lämplig förtroendemodell och anpassa den efter särskilda krav på förtroendemodellering, som varierar mycket beroende på människors subjektivitet. Den personaliserade förtroenderam (PTF) som presenteras i detta dokument syftar till att ta itu med detta problem genom att tillhandahålla en mekanism för mänskliga användare att fånga deras förtroende utvärderingsprocess för att det ska replikeras av datorer. I mer detaljer kan en användare specificera hur han väljer en förtroendemodell baserad på information om det ämne vars pålitlighet han behöver för att utvärdera och hur denna förtroendemodell är konfigurerad. Denna förtroendeutvärderingsprocess automatiseras sedan av PTF som använder sig av de förtroendemodeller som användaren flexibelt kopplar in i PTF. Genom att göra så gör PTF det möjligt för användare att återanvända och anpassa befintliga förtroendemodeller för att passa deras krav utan att behöva programmera om dessa modeller.
|
Nära släkt med vårt arbete är den Personaliserade Trust Framework (PTF) REF ) som väljer en lämplig förtroendemodell för en viss miljö baserad på användarnas val.
| 14,866,305 |
A personalized framework for trust assessment
|
{'venue': "SAC '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,498 |
I många globala optimeringsproblem motiverade av tekniska tillämpningar är antalet funktionsutvärderingar kraftigt begränsat av tid eller kostnad. För att säkerställa att varje utvärdering bidrar till lokaliseringen av bra kandidater för rollen som global minimering, görs vanligtvis ett sekventiellt val av utvärderingspunkter. Särskilt när Kriging används för att interpolera tidigare utvärderingar kan osäkerheten i samband med bristen på information om funktionen uttryckas och användas för att beräkna ett antal kriterier som tar hänsyn till intresset av en ytterligare utvärdering vid en viss tidpunkt. I detta dokument introduceras minimering entropi som ett nytt kriging-baserat kriterium för det sekventiella valet av punkter där funktionen ska utvärderas. Baserat på stegvis osäkerhetsminskning, står det för informationsvinsten på den minimering som förväntas av en ny utvärdering. Kriteriet är approximativt med hjälp av villkorliga simuleringar av Gaussian processmodellen bakom Kriging, och sedan infogas i en algoritm liknande i andemeningen till den effektiva Global Optimization (EGO) algoritm. En empirisk jämförelse görs mellan vårt kriterium och den förväntade förbättringen, ett av referenskriterierna i litteraturen. Experimentella resultat tyder på stora utvärderingsbesparingar jämfört med EGO. Slutligen är metoden, som vi kallar IAGO (för informationsstrategi för global optimering) utökad till robusta optimeringsproblem, där både faktorerna som ska ställas in och funktionsutvärderingarna korrumperas av buller.
|
REF utvecklade också en krigingbaserad metod som kallas IAGO och som använder minimal entropi som ett kriterium för att fastställa nya utvärderingspunkter.
| 3,264,979 |
An informational approach to the global optimization of expensive-to-evaluate functions
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,499 |
Abstrakt. Arbetsbelastningsplacering på servrar har traditionellt drivits av främst prestandamål. I detta arbete undersöker vi design, implementering och utvärdering av en power-aware applikationsplaceringscontroller i samband med en miljö med heterogena virtualiserade serverkluster. Placeringskomponenten i applikationshanteringen middleware tar hänsyn till energi- och migreringskostnaderna utöver prestandavinsten samtidigt som applikationsbehållaren placeras på de fysiska servrarna. Bidraget från detta arbete är tvåfaldigt: för det första presenterar vi flera sätt att fånga upp problemet med kostnadsmedveten applikationsplacering som kan tillämpas på olika inställningar. För varje formulering ger vi detaljer om vilken typ av information som krävs för att lösa problemen, modellantagandena och hur praktiska antagandena är på riktiga servrar. I den andra delen av vår studie presenterar vi pMapper arkitektur och placering algoritmer för att lösa en praktisk formulering av problemet: minimering kraft som omfattas av ett fast prestandakrav. Vi presenterar omfattande teoretiska och experimentella bevis för att fastställa effekten av pMapper.
|
Verma m.fl. REF undersökte utformningen, genomförandet och utvärderingen av en power-aware programplaceringscontroller i en miljö med heterogena virtualiserade serverkluster.
| 7,674,151 |
pMapper: power and migration cost aware application placement in virtualized systems
|
{'venue': 'Middleware', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,500 |
För ett givet, godtyckligt diagram, vad är epidemitröskeln? Det vill säga, under vilka förhållanden kommer ett virus att leda till en epidemi? Vi tillhandahåller supermodellen teorem, som generaliserar äldre resultat i två viktiga, ortogonala dimensioner. Teoremet visar att a) för ett brett spektrum av virusförökningsmodeller (VPM) som inkluderar alla virusförökningsmodeller i standardlitteraturen (t.ex. [8][5]) och b) för alla kontaktdiagram, beror svaret alltid på det första eigenvärdet av konnektivitetsmatrisen. Vi ger bevis på teorem, aritmetiska exempel för populära VPM, som influensa (SIS), påssjuka (SIR), SIRS och mer. Vi visar också konsekvenserna av vår upptäckt: enkla (även om ibland kontraintuitiva) svar på "vad-om" frågor; enklare design och utvärdering av immunisering politik, och betydligt snabbare agent-baserade simuleringar. - Vad är det för fel på dig?
|
REF förmodar att epidemitröskeln för alla virusutbredningsmodeller beror på nätverkets största eigensvärde.
| 4,784,989 |
Got the Flu (or Mumps)? Check the Eigenvalue!
|
{'venue': None, 'journal': 'arXiv: Physics and Society', 'mag_field_of_study': ['Mathematics', 'Physics', 'Biology']}
| 14,501 |
Abstract-Redirected Free Exploration with Distraktors (RFEDs) är en storskalig real-walking locomotion gränssnitt utvecklat för att göra det möjligt för människor att gå fritt i virtuella miljöer (VEs) som är större än det spårade utrymmet i sin anläggning. Detta dokument beskriver RFED-systemet i detalj och rapporterar om en användarstudie som utvärderade RFED genom att jämföra det med gränssnitten Walking-in-Place (WIP) och Joystick (JS). RFED-systemet består av två huvudkomponenter, omdirigering och distraktorer. I detta dokument diskuteras designutmaningar, genomförandedetaljer och lärdomar från utvecklingen av två fungerande RFED-system. Utvärderingsstudien undersökte effekten av locomotion-gränssnittet på användarnas kognitiva prestanda på navigering och vägsökningsåtgärder. Resultaten tyder på att deltagare som använder RFED var betydligt bättre på att navigera och hitta genom virtuella labyrinter än deltagare som använder walking-in-place och joystick-gränssnitt. Deltagarna reste kortare sträckor, gjorde färre fel varv, pekade på dolda mål mer exakt och snabbare, och kunde placera och märka mål på kartor mer exakt, och mer exakt uppskatta den virtuella miljön storlek.
|
Till exempel Peck et al. föreslå ett verkligt walking locomotion gränssnitt där användare kan besöka uppslukande virtuella miljöer som är större än det spårade utrymmet REF.
| 11,214,621 |
The Design and Evaluation of a Large-Scale Real-Walking Locomotion Interface
|
{'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
| 14,502 |
Vi anser att det algoritmiska problemet med att beräkna partition funktion Sherrington-Kirkpatrick modell av spinnglasögon med Gaussian kopplingar. Vi visar att det inte finns någon polynomalgoritm för att beräkna partitionsfunktionen exakt (i betydelsen att göras exakt), om inte P=#P. Våra bevis använder Liptons reducibility trick av beräkning modulo stora primer [Lip91] och nära-uniformity av log-normal distribution i små intervall. Såvitt vi vet är detta den första statistiska fysikmodellen med slumpmässiga parametrar för vilka sådan genomsnittlig fallhårdhet är etablerad.
|
Den slumpmässiga självreducerbarheten av polynom användes också av Gamarnik REF för att bevisa att exakt beräkna partition funktion av Sherrington-Kirkpatrick modellen i statistisk fysik är svårt i genomsnitt.
| 53,196,040 |
Computing the partition function of the Sherrington-Kirkpatrick model is hard on average
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Physics', 'Computer Science']}
| 14,503 |
Abstrakt. Människor kan lära sig på ett kontinuerligt sätt. Gammal sällan utnyttjad kunskap kan skrivas över av ny inkommande information medan viktig, ofta använda kunskap förhindras från att raderas. Inom system för artificiellt lärande har det livslånga lärandet hittills främst inriktats på att samla kunskap om uppgifter och övervinna katastrofal glömska. I detta dokument hävdar vi att med tanke på den begränsade modellkapaciteten och den obegränsade nya information som ska inhämtas måste kunskap bevaras eller raderas selektivt. Inspirerade av neuroplasticitet föreslår vi ett nytt tillvägagångssätt för livslångt lärande, myntat Memory Aware Synapses (MAS). Den beräknar betydelsen av parametrarna i ett neuralt nätverk på ett oövervakat och online sätt. Med tanke på ett nytt urval som matas till nätverket ackumulerar MAS ett viktigt mått för varje parameter i nätverket, baserat på hur känslig den förutsagda utdatafunktionen är för en förändring av denna parameter. När du lär dig en ny uppgift kan förändringar i viktiga parametrar sedan bestraffas, vilket effektivt förhindrar att viktiga kunskaper relaterade till tidigare uppgifter skrivs över. Vidare visar vi en intressant koppling mellan en lokal version av vår metod och Hebbs regel, som är en modell för inlärningsprocessen i hjärnan. Vi testar vår metod på en sekvens av objektigenkänningsuppgifter och på det utmanande problemet med att lära sig en inbäddning för att förutsäga < subjekt, predikat, objekt> trillingar. Vi visar den senaste prestandan och, för första gången, förmågan att anpassa betydelsen av parametrar baserade på omärkta data till vad nätverket behöver (inte) att glömma, vilket kan variera beroende på testförhållanden.
|
I REF Aljungi et al. presenterade Memory Aware Synapses, där tanken är att uppskatta vikterna för nätverksparametrarna på ett oövervakat sätt för att möjliggöra anpassning till omärkt dataström.
| 4,254,748 |
Memory Aware Synapses: Learning what (not) to forget
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,504 |
En irline flygförseningar har kommit under ökad granskning nyligen i den populära pressen, med uppgifter från Federal Aviation Administration avslöjar att flygbolaget i tid prestanda var på sin värsta nivå på 13 år 2007. Flygförseningar har tillskrivits flera orsaker såsom väderförhållanden, överbelastning av flygplatser, överbelastning av luftrummet, flygbolagens användning av mindre flygplan osv. I detta dokument undersöker vi hur den planerade blocktiden för en flygning, en faktor som kontrolleras av flygbolagen, påverkar ankomsten i tid. Vi analyserar empiriska flygdata som publicerats av Bureau of Transportation Statistics för att uppskatta den planerade ankomsten i tid sannolikheten för varje kommersiell inrikes flygning i USA 2007 av ett större lufttrafikföretag. Den strukturella estimeringsmetoden från ekonometri används sedan för att imputera förhållandet mellan över- och minderårig kostnad för nyhetsleverantörens modell för varje flygning. Våra resultat visar att flygbolagen systematiskt "understryker" flygförseningar, dvs. de kostnader för flygförseningar som följer av newsvendor-modellen är lägre än de implicita kostnaderna för tidiga ankomster för en stor del av flygningarna. Våra resultat indikerar att intäktsdrivande faktorer (t.ex. genomsnittspris) och konkurrensåtgärder (t.ex. marknadsandel) har en betydande inverkan på den planerade sannolikheten för ankomst i tid. Vi visar också att sannolikheten för planerad ankomst i tid inte påverkas positivt av det totala antalet passagerare på flygplanets rotation som kan påverkas av en flygförsening, eller antalet inkommande och utgående anslutande passagerare på en flygning. Operativa egenskaper som navet och talade nätverksstruktur har också en betydande inverkan på den planerade ankomstsannolikheten i tid. Slutligen lägger fullserviceflygbolag större vikt vid kostnaderna för sena ankomster än lågprisflyg, och att flyga på lägsta biljettpris på en linje resulterar i en minskning av sannolikheten för planerad ankomst i tid.
|
Deshpande och Arikan REF undersökte effekterna av den planerade blocktid som tilldelades för en flygning, en faktor som kontrollerades av flygbolagen, på ankomsten i tid.
| 203,949,906 |
The Impact of Airline Flight Schedules on Flight Delays
|
{'venue': 'Manufacturing & Service Operations Management', 'journal': 'Manufacturing & Service Operations Management', 'mag_field_of_study': ['Economics', 'Engineering', 'Computer Science']}
| 14,505 |
Abstract-Automatisk segmentering i MR-hjärnbilder är viktigt för kvantitativ analys i storskaliga studier med bilder förvärvade i alla åldrar. Detta dokument presenterar en metod för automatisk segmentering av MR-hjärnbilder i ett antal vävnadsklasser med hjälp av ett konvolutionellt neuralt nätverk. För att säkerställa att metoden får exakta segmenteringsdetaljer samt rumslig konsistens använder nätverket flera patchstorlekar och flera konvolutionskärnstorlekar för att få information i flera skalar om varje voxel. Metoden är inte beroende av explicita egenskaper, utan lär sig att känna igen den information som är viktig för klassificeringen baserad på utbildningsdata. Metoden kräver endast en anatomisk MR-bild. Segmenteringsmetoden tillämpas på fem olika datauppsättningar: koronal T 2 -viktade bilder av prematura spädbarn förvärvade vid 30 veckors postmenstruella ålder (PMA) och 40 veckor PMA, axial T 2 -viktade bilder av prematura spädbarn förvärvade vid 40 veckor PMA, axial T 1 -viktade bilder av åldrande vuxna förvärvade vid en genomsnittlig ålder av 70 år, och T 1 -viktade bilder av unga vuxna förvärvade vid en genomsnittlig ålder av 23 år. Metoden erhöll följande genomsnittliga Dice-koefficienter för alla segmenterade vävnadsklasser för varje datamängd: 0,87, 0,82, 0,84, 0,86 respektive 0,91. Resultaten visar att metoden får korrekta segmenteringar i alla fem uppsättningar, och därmed visar dess robusthet mot skillnader i ålder och förvärv protokoll. Index Terms-djup inlärning, konvolutionella neurala nätverk, automatisk bildsegmentering, prematura neonatal hjärna, vuxen hjärna, MRT.
|
Moeskops m.fl. REF tillämpade en CNN-modell som använde flera patchstorlekar och olika konvolutionskärnstorlekar för att få flerskalig information om varje voxel.
| 5,829,509 |
Automatic segmentation of MR brain images with a convolutional neural network
|
{'venue': 'IEEE Transactions on Medical Imaging, 35(5), 1252-1261 (2016)', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']}
| 14,506 |
Federerat lärande innebär nya utmaningar för statistik och system när det gäller utbildning av maskininlärningsmodeller över distribuerade nätverk av enheter. I detta arbete visar vi att multi-task lärande är naturligt lämpad för att hantera de statistiska utmaningarna i denna miljö, och föreslå en ny system-medveten optimeringsmetod, MOCHA, som är robust för praktiska systemfrågor. Vår metod och teori tar för första gången upp frågor om höga kommunikationskostnader, stragglers och feltolerans för distribuerat lärande med flera uppgifter. Den resulterande metoden uppnår betydande hastigheter jämfört med alternativ i den federerade inställningen, som vi demonstrerar genom simuleringar på verkliga federerade datauppsättningar. Mobiltelefoner, bärbara enheter och smarta hem är bara några få av de moderna distribuerade nätverk som genererar enorma mängder data varje dag. På grund av den växande lagrings- och beräkningskraften hos enheter i dessa nätverk blir det allt mer attraktivt att lagra data lokalt och driva mer nätverksberäkning till kanten. Det nascent fält av federerat lärande utforskar utbildning statistiska modeller direkt på enheter [35]. Exempel på potentiella tillämpningar är: inlärningskänsla, semantisk plats, eller aktiviteter för mobiltelefonanvändare; förutsäga hälsohändelser som lågt blodsocker eller hjärtinfarkt risk från bärbara enheter; eller upptäcka inbrott i smarta hem [3, 37, 40]. Efter [24, 34, 25] sammanfattar vi de unika utmaningarna med federerat lärande nedan. 1. Vad är det för fel på dig? Statistiska utmaningar: Syftet med federerat lärande är att passa en modell till data, {X 1,. .., X m }, genereras av m distribuerade noder. Varje nod, t... [m] samlar in data på ett icke-ID sätt över nätverket, med data om varje nod som genereras av en distinkt distribution X t... P t. Antalet datapunkter på varje nod, n t, kan också variera avsevärt, och det kan finnas en underliggande struktur närvarande som fångar förhållandet mellan noder och deras tillhörande distributioner. 2. Utgångspunkten är följande: Systemutmaningar: Det finns vanligtvis ett stort antal noder, m, i nätverket, och kommunikation är ofta en betydande flaskhals. Dessutom kan lagrings-, beräknings- och kommunikationskapaciteten för varje nod variera på grund av variationer i hårdvara (CPU, minne), nätverksanslutning (3G, 4G, WiFi) och effekt (batterinivå). Dessa systemutmaningar, tillsammans med obalanserade data och statistisk heterogenitet, gör frågor som t.ex. stragglers och feltolerans betydligt vanligare än i typiska datacentermiljöer. I detta arbete föreslår vi en modelleringsmetod som skiljer sig avsevärt från tidigare arbete med federerat lärande, där målet hittills har varit att utbilda en enda global modell över hela nätverket [24, 34, 25]. Istället tar vi itu med statistiska utmaningar i den federerade inställningen genom att lära sig separata modeller för varje nod, {w 1,. ..................................................... Detta kan naturligt fångas genom en multi-task lärande (MTL) ram, där målet är att överväga att passa separata men relaterade modeller samtidigt [13, 2, 54, 27]. Tyvärr är dagens inlärningsmetoder med flera uppgifter inte lämpade för att hantera de systemutmaningar som uppstår i samband med federerat lärande, inklusive höga kommunikationskostnader, stragglers och feltolerans. Att ta itu med dessa utmaningar är därför en viktig del av vårt arbete. * Författare bidrog lika mycket. ArXiv:1705.10467v1 [cs. LG] 30 maj 2017 2 Termen inlärning på enhet har använts för att beskriva både uppgiften modellutbildning och modelltjänst. På grund av tvetydigheten i denna fras använder vi uteslutande termen federerad inlärning. 3 Även om inte fokus för vårt arbete, Vi noterar integritet är en viktig oro i den federerade miljön, och att den integritet fördelar i samband med globala federerade lärande (som diskuteras i [34] ) också gäller vår strategi.
|
Dessutom använde REF ett ramverk för lärande med flera uppgifter och föreslog en ny metod, MOCHA, för att ta itu med dessa statistik- och systemutmaningar (inklusive data heterogenitet och kommunikationseffektivitet).
| 3,586,416 |
Federated Multi-Task Learning
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,507 |
Abstract-The rate maximization för K-user interferent kanaler (ICs) har undersökts i stor utsträckning i litteraturen. Det praktiska problemet med att minimera sannolikheten för fel med givna signalmoduler och/eller datahastigheter hos användarna är dock mindre studerad. I detta papper, genom att utnyttja ytterligare grader av frihet från felaktig signalering (mot den konventionella rätt signalering), försöker vi optimera förkodning matriser för K-användare eninput engång-utmatning (SISO) ICs för att minimera parvis fel sannolikhet (PEP) och symbol felfrekvens (SER) med två föreslagna algoritmer, respektive. Jämfört med konventionell korrekt signalering och andra toppmoderna felaktiga signalerande konstruktioner, våra föreslagna felaktiga signalsystem uppnå anmärkningsvärda felhastighetsförbättringar i SISO-ICs under både additiv vit Gaussian brus (AWGN) och cellulära systemkonfigurationer med eller utan kanalkodning. Vår studie ger en annan synpunkt för att optimera sändningar i ICs och ytterligare rättfärdigar den praktiska nyttan av felaktig signalering i störningsbegränsade kommunikationssystem. Index Terms-Interference kanaler, felaktig signalering, precoder design, symbol felfrekvens, parvis fel sannolikhet.
|
Pappersreferensdokumentet visade att IGS kan minska felfrekvensen för K-användarens IC.
| 6,010,597 |
Improper Signaling for Symbol Error Rate Minimization in $K$-User Interference Channel
|
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,508 |
Abstrakt. Vi bevisar två grundläggande gissningar på fördelningen av den minsta singular värdet av slumpmässiga n×n matriser med oberoende poster. Under minimala momentan antaganden visar vi att det minsta singularvärdet är av ordning n −1/2, vilket är optimalt för Gaussian matriser. Dessutom ger vi en optimal uppskattning av svansens sannolikhet. Detta kommer som en följd av en ny och i huvudsak skarp uppskattning av problemet Littlewood-Offord: för i.i.d. slumpmässiga variabler X k och reella tal en k, bestämma sannolikheten p att summan k a k X k ligger nära några tal v. För godtyckliga koefficienter en k i samma storleksordning, visar vi att de i huvudsak ligger i en aritmetisk progression av längd 1/p.
|
I REF studerades den lilla avvikelsen som avgränsades av det minsta enskilda värdet av en subgaussisk matris:
| 16,254,511 |
The Littlewood-Offord problem and invertibility of random matrices
|
{'venue': 'Adv. Math', 'journal': None, 'mag_field_of_study': ['Mathematics']}
| 14,509 |
Abstract-Genomföringskapaciteten för trådlösa ad hoc-nät erhålls när trafiken är heterogen men noddistributionen är homogen. För den heterogena trafiken överväger vi två typer av trafik i nätverket, nämligen unicast och datainsamling av kommunikationer. Det finns k källor som skickar olika data till en enda nod och resten av n − k noder i nätverket deltar i unicast kommunikation med en enhetlig tilldelning av källdestination par. Enligt den fysiska modellen är det bevisat att kapaciteten hos dessa heterogena nätverk är på (n Tmax ), där Tmax och n anger den maximala trafiken för en cell respektive antalet noder i nätverket. Resultatet visar att kapaciteten domineras av den maximala överbelastningen i alla delar av nätet. Mer specifikt är nätkapaciteten lika med "n log n" för k = O ( ε n log n) och lika med "n k" för k =... ( ε n log n).
|
Mingyue Ji m.fl. härledd kapaciteten för trådlösa ad hoc-nät när trafiken är heterogen men noddistributionen är homogen REF.
| 3,164,720 |
Capacity of wireless networks with heterogeneous traffic under physical model
|
{'venue': '2010 IEEE Sarnoff Symposium', 'journal': '2010 IEEE Sarnoff Symposium', 'mag_field_of_study': ['Computer Science', 'Engineering']}
| 14,510 |
Vi ser över det klassiska problemet med dynamisk upprätthållande kortaste vägar mellan alla par av noder i en riktad viktad graf. De tillåtna uppdateringarna är tillägg och raderingar av noder och deras tillbud kanter. Vi ger värsta tänkbara garantier för den tid som behövs för att bearbeta en enda uppdatering (i motsats till relaterade resultat avskrivs inte uppdateringstiden över en sekvens av uppdateringar). Vårt huvudresultat är en enkel randomiserad algoritm som för alla parameter c > 1 har en värsta-fall uppdateringstid av O(cn 2+ 2 /3 log 4 /3 n) och svarar på avstånd frågor korrekt med sannolikhet 1 − 1/n c, mot en adaptiv online motståndare om grafen inte innehåller någon negativ cykel. Den bästa deterministiska algoritmen är Thorup [STOC 2005] med en uppdateringstid på i värsta fall Õ(n 2+ 3 /4 ) och antar icke-negativa vikter. Detta är den första förbättringen av detta problem under mer än ett decennium. Konceptuellt visar vår algoritm att randomisering tillsammans med en mer direkt strategi kan ge bättre gränser.
|
Thorup [60] gav en helt dynamisk alla-par kortaste vägar struktur med värsta fall uppdateringstid Õ(n 2,75 ), och Abraham et al. REF gav en randomiserad uppdateringstid på i värsta fall begränsad Õ(n 2+2/3 ).
| 3,633,578 |
Fully dynamic all-pairs shortest paths with worst-case update-time revisited
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,511 |
Sammanfattning av denna webbsida: Detta papper presenterar SmartFall, en Android-app som använder accelerometer data som samlats in från en råvarubaserad smartwatch Internet of Things (IoT) enhet för att upptäcka fall. Smartwatch kopplas ihop med en smartphone som kör programmet SmartFall, som utför den beräkning som krävs för att förutsäga fall i realtid utan att ådra sig latens i kommunikationen med en molnserver, samtidigt som dataintegriteten bevaras. Vi experimenterade med både traditionella (Support Vector Machine och Naive Bayes) och icke-traditionella (Deep Learning) maskininlärningsalgoritmer för skapandet av falldetekteringsmodeller med hjälp av tre olika falldataset (Smartwatch, Notch, Farseeing). Våra resultat visar att en Deep Learning-modell för falldetektering i allmänhet överträffar mer traditionella modeller över de tre dataseten. Detta tillskrivs Deep Learning modellens förmåga att automatiskt lära sig subtila funktioner från rå accelerometer data som inte är tillgängliga för Naive Bayes och Support Vector Machine, som är begränsade till att lära sig från en liten uppsättning extraherade funktioner manuellt specificerade. Dessutom uppvisar Deep Learning-modellen en bättre förmåga att generalisera till nya användare när man förutspår fall, en viktig kvalitet på alla modeller som ska bli framgångsrika i den verkliga världen. Vi presenterar också en tre-lagers öppen IoT-systemarkitektur som används i SmartFall, som enkelt kan anpassas för insamling och analys av andra sensordatamodaliteter (t.ex. puls, hudtemperatur, gångmönster) som möjliggör fjärrövervakning av en persons välbefinnande.
|
SmartFall presenteras i REF, en Android-applikation som samlar accelerometer data genom en smartwatch och använder djupt lärande för falldetektering och förutsägelse.
| 52,966,129 |
SmartFall: A Smartwatch-Based Fall Detection System Using Deep Learning
|
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Computer Science', 'Engineering']}
| 14,512 |
ABSTRACT Ökad efterfrågan på mobil intelligent terminalutrustning resulterar i en exponentiell ökning av dataflödet i femte generationens mobila kommunikationsnät. Småcelliga nät har ansetts vara en av de möjliga lösningarna, där interferenshantering och effektiv resursfördelning är olösta problem på grund av många små basstationer. I detta dokument introduceras begreppet kognitiva småcelliga nätverk, som kombinerar teknik från kognitiv radio med små celler. Vi strävar efter att maximera den totala genomströmningen av de kognitiva småcelliga nätverken genom att gemensamt överväga interferenshantering, rättvis resursfördelning, genomsnittlig avbrottsannolikhet och kanalåteranvändningsradie. För att optimera problemet kan vi bryta ner det ursprungliga problemet i tre subproblem. För det första, vi härleda den genomsnittliga avbrottsannolikhet funktion av nätet med avseende på spektrumavkännartröskeln. Med en given sannolikhetströskel för avbrott erhålls det tillhörande intervallet för kanalens återanvändningsradie. För att maximera det totala genomströmningen föreslås dessutom en rättvis fördelning av distribuerade resurser (FDRA) algoritm för att garantera rättvisa mellan kognitiva småcelliga basstationer, som definierar tillfredsställelsegrad och trafikkrav indikatorer för att dynamiskt justera resurstilldelningsprocessen. Med tanke på den tidsvarierande trafikbelastningen och olika geografiska miljöer föreslås slutligen en förbättrad FDRA-algoritm (IFDRA) för att ytterligare förbättra genomströmningen av det heta området. Simuleringsresultaten visar att den föreslagna FDRA-algoritmen och IFDRA-algoritmen kan uppnå en betydande prestandaförbättring jämfört med systemen i litteraturen och samtidigt ge bättre rättvisa mellan kognitiva småcelliga basstationer. INDEX TERMS Kognitiv liten cell, resursfördelning, kanal återanvändning radie, rättvisa.
|
En rättvis distribuerad resursfördelningsalgoritm för att uppnå en hög total genomströmning i heterogena nätverk föreslogs i REF.
| 88,486,273 |
Fairness-Based Distributed Resource Allocation in Two-Tier Heterogeneous Networks
|
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
| 14,513 |
Detta papper introducerar en oövervakad grafbaserad metod som väljer textetiketter för automatiskt genererade ämnen. Vårt tillvägagångssätt använder ämnet sökord för att fråga en sökmotor och generera en graf från orden i resultaten. PageRank används sedan för att väga orden i grafen och poäng kandidatetiketter. Den senaste metoden för denna uppgift övervakas (Lau et al., 2011). Utvärdering av standarddata visar att vårt arbetssätt genomgående är överlägset tidigare rapporterade metoder.
|
Oriktad PageRank algoritm användes för att tilldela vikter till ord och poäng kandidatetiketter REF.
| 16,257,494 |
Labelling Topics using Unsupervised Graph-based Methods
|
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,514 |
Vi presenterar en hybrid förhållningssätt till mening förenkling som kombinerar djup semantik och enspråkig maskinöversättning för att härleda enkla meningar från komplexa. Tillvägagångssättet skiljer sig från tidigare arbete på två huvudsakliga sätt. För det första är det semantiskt baserat på att det krävs en djup semantisk representation snarare än t.ex. en mening eller ett parsträd. För det andra kombineras en förenklingsmodell för delning och radering med en enspråkig översättningsmodell för frassubstitution och omordning. Jämfört med dagens moderna metoder ger vår modell betydligt enklare produktion som både är grammatisk och innebär att bevara.
|
I REF föreslås en hybridmetod för förenkling av meningar som kombinerar djup semantik och enspråkig maskinöversättning.
| 15,489,071 |
Hybrid Simplification using Deep Semantics and Machine Translation
|
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,515 |
Abstract-flera verktyg och metoder för att bevisa icke-interferens egenskaper för Java och andra språk finns. Vissa av dem har en hög grad av automatisering eller är till och med helt automatiska, men över approximera det faktiska informationsflödet, och därmed kan producera falska positiva. Andra verktyg, såsom de som bygger på teorem bevis, är exakta, men kan behöva interaktion, och därmed, analys är tidskrävande. I detta dokument föreslår vi en hybrid strategi som syftar till att få det bästa av båda tillvägagångssätt: Vi vill använda helt automatisk analys så mycket som möjligt och endast på platser i ett program där, på grund av över tillnärmning, automatiska tillvägagångssätt misslyckas, vi tar till mer exakt, men interaktiv analys, där det senare innebär verifiering endast av specifika funktionella egenskaper i vissa delar av programmet, snarare än att kontrollera mer intrikata icke-interferens egenskaper för hela programmet. För att illustrera hybridmetoden, använder vi i en fallstudie detta tillvägagångssätt-tillsammans med det helautomatiska verktyget Joana för att kontrollera icke-interferens egenskaper för Java-program och teoremet bevis KeY för verifiering av Java-program- samt CVJ ram som föreslagits av Küsters, Truderung, och Graf för att etablera kryptografiska integritetsegenskaper för ett icke-trivial Java-program, nämligen ett e-voting system. CVJ-ramverket gör det möjligt att etablera kryptografiska oskiljbarhetsegenskaper för Java-program genom att kontrollera (standard) icke-interferensegenskaper för sådana program.
|
Syftet med Hybrid Approach Ref är också att kombinera automatisk beroende-grafanalys och teorembevisning.
| 3,650,540 |
A Hybrid Approach for Proving Noninterference of Java Programs
|
{'venue': '2015 IEEE 28th Computer Security Foundations Symposium', 'journal': '2015 IEEE 28th Computer Security Foundations Symposium', 'mag_field_of_study': ['Computer Science']}
| 14,516 |
Sammanfattning av denna webbsida: Nya framsteg inom fjärranalys av bilder och geospatial bildbehandling med hjälp av obemannade luftfartyg (UAV) har gjort det möjligt att snabbt och kontinuerligt utveckla övervakningsverktyg för hantering av grödor och upptäckt/övervakning av skadeinsekter. I detta dokument beskrivs en (UAV) fjärranalysbaserad metod för att öka effektiviteten hos befintliga övervakningsmetoder (mänskliga inspektörer och insektsfällor) för att upptäcka skadedjursangrepp (t.ex. druvfylloxera i vingårdar). Metoden använder en UAV integrerad med avancerade digitala hyperspektral-, multispektral- och RGB-sensorer. Vi implementerade metodiken för utveckling av en prediktiv modell för phylloxera detektion. I denna metod utforskar vi kombinationen av luftburen RGB, multispektral och hyperspektral bild med markbaserade data vid två separata tidsperioder och under olika nivåer av phylloxera angrepp. Vi beskriver den teknik som används-sensorerna, UAV, och flygverksamheten-bearbetning arbetsflödet för dataset från varje bildtyp, och metoderna för att kombinera flera luftburna med markbaserade dataset. Slutligen presenterar vi relevanta resultat av korrelation mellan de olika behandlade datamängderna. Syftet med denna forskning är att utveckla en ny metod för insamling, bearbetning, analys och integrering av multispektral-, hyperspektral-, mark- och rumslig data för att på distans känna av olika variabler i olika tillämpningar, t.ex. i detta fall övervakning av växtskadegörare. Utvecklingen av en sådan metod skulle ge forskare, agronomer och UAV-utövare tillförlitliga protokoll för datainsamling och metoder för att uppnå snabbare bearbetningsteknik och integrera flera datakällor i olika fjärranalystillämpningar.
|
Den senaste tidens framsteg när det gäller fjärranalys av bilder och geospatial bildbehandling med hjälp av obemannade luftfartyg har gjort det möjligt att snabbt och kontinuerligt utveckla övervakningsverktyg för hantering av grödor och upptäckt/övervakning av skadeinsekter och sjukdomar.
| 3,327,194 |
A Novel Methodology for Improving Plant Pest Surveillance in Vineyards and Crops Using UAV-Based Hyperspectral and Spatial Data
|
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Computer Science', 'Engineering', 'Medicine']}
| 14,517 |
Abstract-Cloud plattformar värd flera oberoende applikationer på en delad resurs pool med möjlighet att fördela datorkraft till applikationer på en begäran. Användningen av servervirtualiseringstekniker för sådana plattformar ger stor flexibilitet med förmågan att konsolidera flera virtuella maskiner på samma fysiska server, att ändra storlek på en virtuell maskinkapacitet och att migrera virtuell maskin över fysiska servrar. En viktig utmaning för molnleverantörer är att automatisera hanteringen av virtuella servrar samtidigt som man tar hänsyn till både höga QoS-krav för värdprogram och resurshanteringskostnader. I detta dokument föreslås en autonom resursförvaltare för att kontrollera den virtualiserade miljön som frikopplar tillhandahållandet av resurser från den dynamiska placeringen av virtuella maskiner. Denna chef syftar till att optimera en global nyttofunktion som integrerar både graden av SLA-uppfyllelse och driftskostnaderna. Vi använder oss av en strategi för begränsningsprogrammering för att formulera och lösa optimeringsproblemet. Resultat som erhållits genom simuleringar validerar vårt tillvägagångssätt.
|
I REF, molnplattformar värd flera oberoende applikationer på en delad resurspool med möjlighet att fördela datorkraft till applikationer på per-demand basis.
| 3,558,331 |
SLA-Aware Virtual Resource Management for Cloud Infrastructures
|
{'venue': '2009 Ninth IEEE International Conference on Computer and Information Technology', 'journal': '2009 Ninth IEEE International Conference on Computer and Information Technology', 'mag_field_of_study': ['Computer Science']}
| 14,518 |
Detta papper beskriver ett system och uppsättning av algoritmer för att automatiskt framkalla fristående enspråkig del-av-tal taggers, bas sub-fras-beslag, namngivna-entity taggers och morfologiska analysatorer för ett godtyckligt främmande språk. Fallstudier omfattar franska, kinesiska, tjeckiska och spanska. Befintliga verktyg för textanalys för engelska tillämpas på tvåspråkig textkorpora och deras utdata projiceras på det andra språket via statistiskt härledda ordanpassningar. Enkel direkt annotering projektion är ganska bullriga, dock, även med optimala justeringar. Således presenterar detta papper buller-robust tagger, parentes och lemmatizer utbildning förfaranden som kan korrekt system bootstrappa från bullriga och ofullständiga inledande prognoser. Prestanda av den inducerade fristående del-av-talk tagger som tillämpas på franska uppnår 96% kärna del-av-tal (POS) tag noggrannhet, och motsvarande inducerade substantiv-frasbeslag överstiger 91% F-mått. Den inducerade morfologiska analysatorn uppnår över 99% lemmatisering noggrannhet på det fullständiga franska verbala systemet. Denna prestation är särskilt anmärkningsvärd eftersom den inte krävde några uppgifter om handanmäld utbildning på det givna språket och praktiskt taget inga språkkunskaper eller resurser utöver råtext. Prestanda överstiger också avsevärt den som erhålls genom direkt annotering projicering.
|
REF beskriver ett system och en uppsättning algoritmer för att automatiskt härleda autonoma enspråkiga POS-taggrar, substantivfrasbeslag, namngivna entitetstaggerare och morfologiska analysatorer för ett godtyckligt målspråk.
| 15,279,538 |
Inducing Multilingual Text Analysis Tools Via Robust Projection Across Aligned Corpora
|
{'venue': 'Human Language Technology Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,519 |
För en planar punkt som vi anser grafen av korsande fria raka linjen spänner träd där två spännande träd är intilliggande i grafen om deras förening är korsande-fri. En övre gräns på diametern av denna graf innebär en övre gräns på diametern av flip grafen av pseudo-trianguleringar av den underliggande punkten uppsättningen. Vi bevisar en lägre gräns av log(n)/ log (log(n)) för diametern på grafen av spännande träd på en planar uppsättning av n punkter. Detta motsvarar nästan den kända övre gränsen för O(log(n)). Om vi mäter diametern i förhållande till antalet konvexa lager k i punktuppsättningen, är vår nedre bundna konstruktion stram, d.v.s. diametern är i ska (log(k)) som matchar den kända övre gränsen av O(log(k)). Hittills var bara konstanta lägre gränser kända.
|
Nyligen Buchin et al. REF visade en lägre gräns för denna fråga (log n/ log log n).
| 14,037,980 |
Transforming spanning trees: A lower bound
|
{'venue': 'Graz University of Technology', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,520 |
Ett datoriserat arbetsflödeshanteringssystem kan driva igenom en säkerhetspolicy, specificerad i form av auktoriserade åtgärder och begränsningar, vilket begränsar vilka användare som kan utföra särskilda steg i ett arbetsflöde. Förekomsten av en säkerhetspolicy kan innebära att det är omöjligt att hitta en giltig plan (en tilldelning av steg till auktoriserade användare så att alla begränsningar är uppfyllda). Arbetet i litteraturen fokuserar på arbetsflödets tillfredsställande problem, ett beslutsproblem som resulterar i en giltig plan om instansen är tillfredsställande (och ett negativt resultat annars). I detta dokument introducerar vi bi-målarbetsflödet tillfredsställande problem (BO-WSP), som gör det möjligt för oss att lösa optimeringsproblem relaterade till arbetsflöden och säkerhetspolicyer. I synnerhet kan vi beräkna en "minst dålig" plan när vissa delar av säkerhetspolitiken kan komma att kränkas. I allmänhet är BO-WSP intractable ur både klassisk och parameteriserad komplexitet synvinkel. Vi visar att det finns en fast-parameter dragbar (FPT) algoritm för att beräkna en Pareto front för BO-WSP om vi begränsar vår uppmärksamhet till användaroberoende begränsningar. Vi presenterar också en andra algoritm för att beräkna en Pareto front som använder blandade heltal programmering (MIP). Vi jämför prestandan för båda våra algoritmer på syntetiska instanser, och visar att FPT algoritm överträffar MIP-baserade en efter flera storleksordningar på de flesta fallen. Slutligen studerar vi den viktiga frågan om workflow reiliency och visar på nya resultat som visar att kända beslutsproblem är fasta-parameter hanterbara när de begränsas till användaroberoende begränsningar. Vi föreslår sedan ett nytt sätt att modellera tillgängligheten för användarna och visa att många frågor som rör motståndskraft inom ramen för denna nya modell kan reduceras till fall av
|
Crampton m.fl. REF studerade den bi-mål WSP, som är problemet med att minimera två viktfunktioner i samband med ett giltigt genomförande scenario.
| 3,458,495 |
The Bi-Objective Workflow Satisfiability Problem and Workflow Resiliency
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,521 |
Molnlagringssystem blir allt populärare. En lovande teknik som håller sina kostnader nere är deduplikation, som lagrar bara en enda kopia av upprepade data. Client-side deduplication försöker identifiera dedupliceringsmöjligheter redan på klienten och spara bandbredden för att ladda upp kopior av befintliga filer till servern. I detta arbete identifierar vi attacker som utnyttjar klient-side deduplicering, vilket gör det möjligt för en angripare att få tillgång till godtycklig storlek filer från andra användare baserat på en mycket liten hash signaturer av dessa filer. Mer specifikt, en angripare som vet hash signatur av en fil kan övertyga lagringstjänsten att den äger den filen, därav servern låter angriparen ladda ner hela filen. ( Parallellt med vårt arbete introducerades nyligen en delmängd av dessa attacker i det fria med avseende på Dropbox filsynkroniseringstjänst.) För att övervinna sådana attacker, introducerar vi begreppet bevis-of-ownership (PoWs), som låter en klient effektivt bevisa för en server att kunden har en fil, snarare än bara en kort information om det. Vi formaliserar begreppet "proof-of-ownership", med strikta säkerhetsdefinitioner, och stränga effektivitetskrav för Petabyte-lagringssystem. Vi presenterar sedan lösningar baserade på Merkle-träd och specifika kodningar, och analyserar deras säkerhet. Vi genomförde en variant av programmet. Våra prestandamätningar visar att systemet endast har en liten overhead jämfört med naiv klient-side-deduplicering.
|
För att förhindra dessa attacker, Halevi et al. REF föreslog begreppet "proofs of ownership" (PoW) för deduplikationssystem, så att en klient effektivt kan bevisa för molnlagringsservern att han äger en fil utan att ladda upp filen själv.
| 2,979,967 |
Proofs of ownership in remote storage systems
|
{'venue': "CCS '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,522 |
....................................... En ensemble av en 2D-konvektion flöde fält analyseras med hjälp av de föreslagna gemensamma varians visualisering tekniker. Från vänster till höger: Individuella varianser av fyra av datasetet körs visar höga varianser runt uppvärmningscylindern. Borsta i klassificeringsutrymmet gör det möjligt att identifiera liknande (gröna), olikartade (röda) och osäkra regioner (blå och vita). Tillsammans med en färgkartad visualisering av ensembledomänen och interaktiv pathlinesådd är en komplett analys av transport möjlig. Abstract-Sets av simulering körs baserat på parameter och modellvariation, så kallade ensembler, används i allt högre grad för att modellera fysiska beteenden vars parameterutrymme är för stort eller komplext för att utforskas automatiskt. Visualisering spelar en nyckelroll när det gäller att förmedla viktiga egenskaper i ensembler, till exempel i vilken grad medlemmar av ensemblen är överens eller inte håller med om sitt beteende. För ensembler av tidsvarierande vektorfält finns det många utmaningar för att ge en uttrycksfull jämförande visualisering, bland annat kravet att relatera effekten av individuella flödesskillnader till ensemblens gemensamma transportegenskaper. Tekniker som utvecklats för skalära ensembler är dock till föga nytta i detta sammanhang, eftersom begreppet transport som framkallas av ett vektorfält inte kan modelleras med hjälp av sådana verktyg. Vi utvecklar ett Lagrangianskt ramverk för jämförelse av flödesfält i en ensemble. Våra tekniker utvärderar individuella och gemensamma transportvarianser och introducerar ett klassificeringsutrymme som underlättar införlivandet av dessa egenskaper i en gemensam ensemblevisualisering. Variances i Lagrangian stadsdelar beräknas med hjälp av väglinje integration och Huvudsakliga Komponenter Analys. Detta gör det möjligt att inkludera osäkerhetsmätningar i visualiserings- och analysmetoden. Våra resultat visar hur användbar och uttrycksfull metoden är på flera praktiska exempel.
|
För det specifika syftet med trendvariabilitetsanalys, Hummel et al. REF utvecklade ett Lagrangianskt ramverk för klassificering i flödesensembler.
| 683,807 |
Comparative Visual Analysis of Lagrangian Transport in CFD Ensembles
|
{'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
| 14,523 |
I detta papper, vi karakteriserar genomströmningen av ett sändningsnätverk med n mottagare med hjälp av hastighetslösa koder med blockstorlek K. Vi antar att den underliggande kanalen är en Markov modulerad radering kanal som är i.i.d. över användare, men kan korreleras i tid. Vi karakteriserar systemet genomströmning asymptotiskt i n. Specifikt visar vi explicit hur genomströmningen beter sig för olika värden av kodblockstorleken K som en funktion av n, när n närmar sig oändligheten. Under det mer restriktiva antagandet av minneslösa kanaler, kan vi ge en lägre gräns på den maximala uppnåeliga genomströmningen för eventuella finita värden av K och n. Med hjälp av simuleringar visar vi tätheten av bundet med avseende på systemparametrarna n och K, och finner att dess prestanda är betydligt bättre än den tidigare kända nedre gränsen.
|
Yang m.fl. Ref fokuserade på ett liknande problem (systemgenomströmning som funktion av antalet mottagare) i tid korrelerade raderingskanaler.
| 257,473 |
Throughput of rateless codes over broadcast erasure channels
|
{'venue': "MobiHoc '12", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,524 |
I detta dokument föreslås ett fotosensorbaserat latensmätningssystem för huvudmonterade bildskärmar (HMD). Rörelse-till-foton latens är den största orsaken till åksjuka och yrsel känns av användare när de bär ett HMD-system. Därför krävs ett mätsystem för att exakt mäta och analysera latensen för att minska dessa problem. Det befintliga mätsystemet tar inte hänsyn till den faktiska fysiska rörelsen hos människor, och dess noggrannhet är också mycket låg. Det föreslagna systemet tar dock hänsyn till den fysiska huvudrörelsen och är mycket korrekt. Specifikt består den av en huvudposition modellbaserad roterande plattform, pixel luminans förändringsdetektor, och signalanalys och beräkningsmoduler. Med hjälp av dessa moduler kan det föreslagna systemet exakt mäta latensen, vilket är tidsskillnaden mellan den fysiska rörelsen för en användare och luminansändringen av en utgående bild. I experimentet med en kommersiell HMD mättes latensen till upp till 47,05 ms. Dessutom ökade den uppmätta latensen upp till 381,17 ms vid ökad rendering i HMD.
|
I REF utvecklades ett fotosensorbaserat verktyg för att mäta latens i VR-system.
| 8,075,728 |
Photosensor-Based Latency Measurement System for Head-Mounted Displays
|
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Computer Science', 'Engineering']}
| 14,525 |
Vi presenterar en modulär strategi för lärandepolitik för navigering över långa planeringshorisonter från språkinmatning. Vår hierarkiska politik fungerar på flera tidsskalor, där den högre nivåns huvudpolitik föreslår att delmål ska verkställas av specialiserade underpolitiker. Vårt val av undermål är kompositionellt och semantiskt, d.v.s. De kan i angiven ordning kombineras i godtyckliga ordningar och antas vara mänskliga tolkningsbara beskrivningar (t.ex. 'Utgångsrum', 'hittat kök', 'hittat kylskåp' etc.). Vi använder imitation inlärning för att varmstarta politik på varje nivå av hierarkin, dramatiskt öka urval effektivitet, följt av förstärkning lärande. Oberoende förstärkning av lärandet på varje hierarkinivå gör det möjligt för underpolitikerna att anpassa sig till konsekvenserna av sina åtgärder och återhämta sig från fel. Efterföljande gemensam hierarkisk utbildning gör det möjligt för masterpolicyn att anpassa sig till underpolitiken. På den utmanande EQA [1]-riktmärket i House3D [2], som kräver att navigera i olika realistiska inomhusmiljöer, överträffar vår strategi tidigare arbete med en betydande marginal, både när det gäller navigering och frågesvar.
|
REF föreslår en hierarkisk lösning för denna uppgift där varje nivå av hierarkin värms upp självständigt med imitationslärande och förbättras ytterligare med förstärkt inlärning.
| 53,080,692 |
Neural Modular Control for Embodied Question Answering
|
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
| 14,526 |
Ontologier är avsedda att fånga och formalisera ett kunskapsområde. De ontologier som ingår i projektet Open Biological Ontologies (OBO), som omfattar Gene Ontology (GO), är formaliseringar av olika områden av biologisk kunskap. Ontologier inom OBO saknar vanligtvis beräkningsbara definitioner som tjänar till att skilja en term från andra liknande termer. Datorn kan inte bestämma innebörden av en term, som ställer till problem för verktyg som automatiserade resonerare. Förnuftiga människor kan vara till enorm nytta när det gäller att hantera en komplex ontologi. OBO termnamn ofta implicit koda den typ av definitioner som kan användas av beräkningsverktyg, såsom automatiserade resonanser. De definitioner som kodas i namnen är inte lätta att förstå vid beräkning, eftersom namnen är skenbart naturliga språkfraser utformade för mänskliga användare. Dessa namn är mycket vanliga i sin grammatik, och kan därför behandlas som giltiga meningar på något formellt eller beräkningsbart språk. Med en beskrivning av de regler som ligger till grund för detta formella språk, kan termnamn tolkas för att härleda beräkningsbara definitioner, som sedan kan motiveras över. I detta dokument beskrivs ansträngningarna för att klargöra detta språk, som kallas Obol, och försöken att resonera över de resulterande definitionerna. Det nuvarande genomförandet finner unika icke-triviala definitioner för ungefär hälften av termerna i GO, och har använts för att hitta 223 saknade relationer, som sedan har lagts till ontologin. Obol har verktyg som ett ontologi underhållsverktyg, och som ett sätt att generera beräkningsbara definitioner för en hel ontologi. Programvaran finns tillgänglig under en licens med öppen källkod från: http://www.fruitfly. org/.cjm/obol......................................................................................................... Kompletterande material för denna artikel finns på: http://www. interscience.wiley.com/jpages/1531-6912/suppmat.
|
Mungall et al REF använde regulariteterna i den syntaktiska strukturen för klassnamn i Gene Ontology (GO) för att generera formella definitioner för klasser.
| 2,632,484 |
Obol: Integrating Language and Meaning in Bio-Ontologies
|
{'venue': 'Comparative and Functional Genomics', 'journal': 'Comparative and Functional Genomics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
| 14,527 |
Caching av populärt innehåll under off-peak timmar är en strategi för att minska nätverksbelastningar under rusningstid. Den senaste tidens arbete har visat betydande fördelar med att utforma sådana caching strategier inte bara för att leverera en del av innehållet lokalt, utan också för att ge kodade multicasting möjligheter även bland användare med olika krav. Att utnyttja båda dessa vinster visade sig vara ungefär optimalt för cachesystem med ett enda lager av cacheminnen. Motiverade av praktiska scenarier, anser vi i detta arbete ett hierarkiskt innehåll leveransnätverk med två lager av caches. Vi föreslår ett nytt cachesystem som kombinerar två grundläggande strategier. Den första metoden ger kodade multicasting möjligheter inom varje lager; den andra metoden ger kodade multicasting möjligheter över flera lager. Genom att hitta rätt balans mellan dessa två strategier visar vi att det föreslagna systemet uppnår optimala kommunikationshastigheter inom ett konstant multiplikativt och additivt gap. Vi visar vidare att det inte finns någon spänning mellan räntorna i vart och ett av de två skikten upp till det ovannämnda gapet. På så sätt kan båda skikten samtidigt arbeta med ungefär den lägsta hastigheten. Efterfrågan på högupplösta videostreamingtjänster som YouTube och Netflix driver på den snabba ökningen av Internettrafiken. För att minska effekten av denna ökade belastning på den underliggande kommunikationsinfrastrukturen använder sig nätverken för innehållsleverans av lagringsminnen eller cacheminnen i hela nätverket. Dessa caches kan befolkas med en del av det populära innehållet under off-peak trafik timmar. Detta cachade innehåll kan sedan användas för att minska nätverksbelastningen under rusningstid när användare gör flest förfrågningar. Innehåll cache har en rik historia, se till exempel [1] och referenser där. På senare tid har det undersökts bland annat inom ramen för video-on-demand-system för vilka effektiva system för innehållsplacering har föreslagits [2], [3]. Effekterna av olika innehållsfakultaliteter på cachesystemen har undersökts t.ex. i [4]- [6]. En vanlig egenskap bland de cachesystem som studeras i litteraturen är att de delar av en begärd fil som är tillgängliga i närliggande cacher serveras lokalt, medan de återstående fildelarna serveras via ortogonala sändningar från en ursprungsserver som är värd för alla filer. Nyligen, [7], [8] föreslog en ny caching metod, kallad kodad caching, som utnyttjar cacheminnen inte bara för att leverera en del av innehållet lokalt, men också för att skapa kodade multicasting möjligheter bland användare med olika krav. Det visas där att minskningen av hastigheten på grund av dessa kodade multicasting möjligheter är betydande och kan vara i storleksordningen av antalet användare i nätet. Den inställning som beaktas i [7], [8] består av ett enda lager cache mellan ursprungsservern och slutanvändarna. Servern kommunicerar direkt med alla caches via en delad länk, och målet är att minimera den nödvändiga överföringshastigheten från servern. För detta grundläggande nätverksscenario visas att kodad cachelagring är optimal inom en konstant faktor. Dessa resultat har utvidgats till icke-uniforma krav [9] och till cachesystem på nätet [10]. I praktiken består många cachesystem inte bara av ett utan flera lager av cacheminnen, vanligtvis ordnade i en trädliknande hierarki med ursprungsservern vid rotnoden och de användare anslutna till bladcache [2], [11], [12]. Varje förälder cache kommunicerar med sina barn cache i nästa lager, och målet är att minimera överföringshastigheterna i de olika lagren.
|
En två-nivå hierarki av cachs övervägdes i REF, och ett system som ger kodade multicasting möjligheter inom varje skikt och över flera lager utformades och visade sig uppnå optimal kommunikationshastighet till inom en konstant multiplikativ och additiv gap.
| 3,918,886 |
Hierarchical Coded Caching
|
{'venue': 'IEEE Transactions on Information Theory, vol. 62, pp. 3212 - 3229, June 2014', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,528 |
Även om forskningen på andra språk ökar, har en stor del av arbetet i subjektivitetsanalys tillämpats på engelska data, främst på grund av den stora mängden elektroniska resurser och verktyg som finns tillgängliga för detta språk. I detta dokument föreslår och utvärderar vi metoder som kan användas för att överföra en databas över subjektivitetsresurser över språk. Särskilt försöker vi utnyttja de resurser som finns tillgängliga för engelska och, genom att använda maskinöversättning, generera resurser för subjektivitetsanalys på andra språk. Genom jämförande utvärderingar på två olika språk (romska och spanska) visar vi att automatisk översättning är ett praktiskt alternativ för uppbyggnad av resurser och verktyg för subjektivitetsanalys i ett nytt målspråk.
|
REF genererade resurser för subjektivitetsanmärkning på spanska och rumänska med hjälp av engelsk corpora.
| 2,432,354 |
Multilingual Subjectivity Analysis Using Machine Translation
|
{'venue': 'Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,529 |
Abstract-Byggandet av en teori för binära träd presenteras, baserat på systematisk undersökning av de egenskaper som krävs för bevisbaserad syntes och certifiering av sorteringsalgoritmer för binära träd. Processen är datorstödd, realiseras i ramen för Theorema systemet, med några ytterligare bevis i Coq krävs för algoritm certifiering. Resultatet av prospekteringen består av 11 definitioner, 3 axiom och mer än 200 fastigheter. Dessutom genereras mer än 5 algoritmer för sortering binära träd.
|
Motsvarande teori om binära träd utforskas i REF.
| 15,265,784 |
Theory exploration of binary trees
|
{'venue': '2015 IEEE 13th International Symposium on Intelligent Systems and Informatics (SISY)', 'journal': '2015 IEEE 13th International Symposium on Intelligent Systems and Informatics (SISY)', 'mag_field_of_study': ['Computer Science']}
| 14,530 |
Abstract-I detta arbete har en djupt lärande strategi utvecklats för att utföra vägdetektering med endast LIDAR-data. Från ett ostrukturerat punktmoln genereras top-view-bilder som kodar för flera grundläggande statistik såsom genomsnittlig höjd och densitet. Genom att överväga en top-view representation, vägdetektering reduceras till ett enskaligt problem som kan hanteras med en enkel och snabb fullt konvolutional neurala nätverk (FCN). FCN är särskilt utformad för uppgiften att pixelvis semantisk segmentering genom att kombinera ett stort mottagligt fält med högupplösta funktionskartor. Det föreslagna systemet uppnådde utmärkt prestanda och är bland de topppresterande algoritmerna på KITI-vägriktmärket. Dess snabba slutledning gör den särskilt lämplig för realtidsapplikationer.
|
Caltagiron m.fl. I REF föreslogs en 3D LiDAR-baserad vägdetekteringsmetod med fullständigt konvolutionella neurala nätverk (FCN).
| 5,398,413 |
Fast LIDAR-based road detection using fully convolutional neural networks
|
{'venue': '2017 IEEE Intelligent Vehicles Symposium (IV)', 'journal': '2017 IEEE Intelligent Vehicles Symposium (IV)', 'mag_field_of_study': ['Computer Science']}
| 14,531 |
Det är ofta användbart att klassificera e-post enligt avsändarens avsikt (t.ex. "föreslå ett möte", "lämna information"). Vi presenterar experimentella resultat i att lära sig att klassificera e-post på detta sätt, där varje klass motsvarar ett verbnomen par tagna från en fördefinierad ontologi som beskriver typiska "e-poströsthandlingar". Vi visar att även om detta kategoriseringsproblem skiljer sig ganska mycket från den "topiska" textklassificeringen, kan vissa kategorier av meddelanden ändå upptäckas med hög precision (över 80 %) och rimligt återkallande (över 50 %) med hjälp av befintliga inlärningsmetoder för textklassificering. Detta resultat tyder på att användbara verktyg för att spåra uppgifter skulle kunna konstrueras på grundval av automatisk klassificering i denna taxonomi.
|
Författarna till REF använde textklassificeringsmetoder för att upptäcka "e-poströsthandlingar".
| 507,598 |
Learning To Classify Email Into "Speech Acts"
|
{'venue': 'SIGDAT Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,532 |
Abstrakt. Vi studerar flaskhals routing spel där den sociala kostnaden bestäms av den värsta trängsel på någon kant i nätet. I litteraturen utgår flaskhalsspel från spelarnas nyttokostnader som bestäms av den värsta överbelastade kanten i deras vägar. Men Nash equilibria av sådana spel är ineffektiva eftersom priset på anarki kan vara mycket hög och proportionell mot storleken på nätverket. För att få mindre pris på anarki introducerar vi exponentiella flaskhalsspel där spelarnas nyttokostnader är exponentiella funktioner i deras trängsel. Vi finner att exponentiella flaskhals spel är mycket effektiva och ger en poly-logg bunden på priset på anarki: O(logga L · log på E), där L är den största vägen längd i spelarnas strategi uppsättningar och E är uppsättningen av kanter i grafen. Genom att justera de exponentiella nyttokostnaderna med en logaritm får vi spel vars spelarkostnader är nästan identiska med dem i vanliga flaskhalsspel, och samtidigt har det bra priset på anarki av exponentiella spel.
|
Ett spel med ett relativt lågt pris på anarki föreslås i REF.
| 11,758,783 |
Bottleneck Routing Games with Low Price of Anarchy
|
{'venue': 'SAGT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,533 |
Sentimentanalys är allmänt studerad för att extrahera åsikter från användargenererat innehåll (UGC), och olika metoder har föreslagits i den senaste litteraturen. Dessa metoder kommer dock sannolikt att medföra en fördomsfull känsla, och klassificeringsresultaten tenderar att vara positiva eller negativa, särskilt för de lexikonbaserade sensibiliseringsmetoderna. Förekomsten av känslor partiskhet leder till dåliga resultat av känsloanalys. För att ta itu med detta problem föreslår vi en ny strategi för partisk behandling av känslor som kan tillämpas på den lexikonbaserade metoden för sensibiliseringsanalys. Vikt- och tröskelparametrar som man lärt sig av ett litet träningsset introduceras i den lexikonbaserade scoring-formeln, och sedan används formeln för att klassificera recensionerna. I detta dokument föreslås en fullständig ram för klassifikation av känslor. SintiWordNet (SWN) används som den experimentella känslan lexikon, och granskningsdata för fyra produkter som samlats in från Amazon används som experimentella datauppsättningar. Experimentella resultat visar att den partiska bearbetningsstrategin minskar polaritetsfördelfrekvensen (PBR) och förbättrar prestandan hos den lexikonbaserade känsloanalysmetoden.
|
Till exempel Han et al. REF utformade SWN-baserade analysramar för lexikonkänslor, som använder sig av strategin för sensibilisering för att förbättra prestandan hos det lexikonbaserade analyssystemet för sensibilisering.
| 52,079,308 |
Improving the performance of lexicon-based review sentiment analysis method by reducing additional introduced sentiment bias
|
{'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Medicine', 'Computer Science']}
| 14,534 |
I detta papper studerar vi problemet med lokal triangel räkna i stora grafer. Nämligen, med tanke på en stor graf G = (V, E) vi vill uppskatta så exakt som möjligt antalet trianglar incident till varje nod v V i grafen. Problemet med att beräkna det globala antalet trianglar i en graf har övervägts tidigare, men enligt vår kunskap är detta det första papperet som tar upp problemet med lokal triangelräkning med fokus på effektivitetsfrågor som uppstår i massiva grafer. Fördelningen av det lokala antalet trianglar och den relaterade lokala klusterkoefficienten kan användas i många intressanta tillämpningar. Vi visar till exempel att de åtgärder vi beräknar kan bidra till att upptäcka förekomsten av skräppostaktivitet i storskaliga webbgrafer, samt tillhandahålla användbara funktioner för att bedöma innehållskvalitet i sociala nätverk. För att beräkna det lokala antalet trianglar föreslår vi två approximation algoritmer, som bygger på idén om min-wise oberoende permutationer ). Våra algoritmer fungerar på ett semi-streaming-sätt, med hjälp av O( och V) utrymme i huvudminnet och utföra O(log och V) sekventiella skanningar över kanterna på grafen. Den första algoritmen som vi beskriver i det här dokumentet använder också O-utrymme i externt minne under beräkning, medan den andra algoritmen endast använder huvudminne. Vi presenterar såväl den teoretiska analysen som experimentella resultat i massiva grafer som visar den praktiska effektiviteten i vårt tillvägagångssätt.
|
Den första föreslagna semi-streaming lokala triangeln uppskattning algoritm bygger på min-wise oberoende permutationer ackumuleras över ett logarthmic antal passer REF.
| 7,349,724 |
Efficient semi-streaming algorithms for local triangle counting in massive graphs
|
{'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,535 |
I detta dokument införs en nätverksarkitektur för att lösa problemet med struktur-from-motion (SfM) via funktions-metrisk buntjustering (BA), som uttryckligen upprätthåller geometriska begränsningar för flera vyer i form av funktions-metriskt fel. Hela rörledningen kan varieras, så att nätverket kan lära sig lämpliga funktioner som gör BA-problemet mer lättåtkomligt. Dessutom introducerar detta arbete en ny djupparameterisering för att återställa tät perpixeldjup. Nätverket genererar först flera grunddjupskartor enligt indatabilden och optimerar det slutliga djupet som en linjär kombination av dessa grunddjupskartor via feature-metric BA. Den grundläggande djupkartor generator lärs också genom end-to-end utbildning. Hela systemet kombinerar på ett fint sätt domänkunskap (dvs. hårdkodade geometriska begränsningar för flera vyer) och djupinlärning (dvs. Funktionsinlärning och grundläggande djupkartor lärande) för att ta itu med de utmanande täta SfM-problem. Experiment i stor skala visar hur framgångsrik den föreslagna metoden är.
|
Förmodligen närmast vårt arbete, BA-Net REF introducerar en nätverksarkitektur för att lösa struktur-from-motion (SfM) problem via feature-metric bunt justering (BA), som uttryckligen tillämpar multi-view geometri begränsningar i form av funktion-metrisk fel.
| 54,058,978 |
BA-Net: Dense Bundle Adjustment Networks
|
{'venue': 'ICLR', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,536 |
Säker och tillförlitlig gruppkommunikation är ett aktivt forskningsområde. Dess popularitet drivs av den växande betydelsen av grupporienterade och samverkande applikationer. Den centrala forskningsutmaningen är en säker och effektiv gruppnyckelhantering. Även om centraliserade metoder ofta är lämpliga för nyckeldistribution i stora multicast-liknande grupper, kräver många samarbetsgruppers inställningar distribuerade nyckelavtalstekniker. Detta arbete undersöker en ny grupp nyckelöverenskommelse metod som blandar viktiga träd med Diffie-Hellman nyckelutbyte. Det ger en säker protokollsvit som kallas Tree-baserad grupp Diffie-Hellman (TGDH) som är både enkel och feltolerant. Dessutom överträffar TGDH:s effektivitet avsevärt tidigare konst.
|
Kim och Al. REF föreslog ett säkert och effektivt protokoll för nyckelhantering baserat på binärt träd.
| 13,187,206 |
Tree-based group key agreement
|
{'venue': 'TSEC', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,537 |
Under de senaste åren har tillförlitligheten hos information på Internet visat sig vara en avgörande fråga för det moderna samhället. Sociala nätverkssajter (SNS) har revolutionerat det sätt på vilket information sprids genom att tillåta användare att fritt dela innehåll. Som en följd av detta används SNS också i allt högre grad som vektorer för spridning av felaktig information och bluffar. Mängden information som sprids och spridningens snabbhet gör det praktiskt taget omöjligt att bedöma tillförlitligheten i rätt tid, vilket understryker behovet av automatiska system för att upptäcka bluffar. Som ett bidrag till detta mål, visar vi att Facebook inlägg kan klassificeras med hög noggrannhet som bluffar eller icke-hoaxes på grundval av de användare som "gillade" dem. Vi presenterar två klassificeringsmetoder, en baserad på logistisk regression, den andra på en ny anpassning av booleska crowdsourcing algoritmer. På ett dataset bestående av 15.500 Facebook-inlägg och 909.236 användare får vi klassificeringsnoggrannheter som överstiger 99% även när utbildningssetet innehåller mindre än 1% av inläggen. Vi visar vidare att våra tekniker är robusta: de fungerar även när vi begränsar vår uppmärksamhet till användare som gillar både bluff och icke-hoax inlägg. Dessa resultat tyder på att kartläggningen av informationsspridningen kan vara en användbar komponent i automatiska bluffdetekteringssystem.
|
Ett exempel på ett nätverk tillvägagångssätt kan hittas i REF där Facebook inlägg klassificeras som bluffar eller non-hoaxes på grundval av de användare som gillade dem.
| 10,890,041 |
Some Like it Hoax: Automated Fake News Detection in Social Networks
|
{'venue': 'Proceedings of the Second Workshop on Data Science for Social Good (SoGood), Skopje, Macedonia, 2017. CEUR Workshop Proceedings Volume 1960, 2017', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,538 |
Abstract-matcha människor över flera kameravyer som kallas person omidentifiering är ett utmanande problem på grund av den förändring i utseendet som orsakas av varierande ljusförhållanden. Den upplevda färgen på motivet verkar vara annorlunda under olika belysningar. Tidigare verk använder färg som det är eller ta itu med dessa utmaningar genom att designa färgrymder med fokus på en specifik kö. I det här dokumentet föreslår vi ett tillvägagångssätt för att lära sig färgmönster från pixlar provtagna från bilder över två kameravyer. Intuitionen bakom detta arbete är att även om varierande ljusförhållanden över vyer påverkar pixelvärden av samma färg, bör den slutliga representationen av en viss färg vara stabil och invariant till dessa variationer, dvs, de bör kodas med samma värden. Vi modellerar färgfunktionsgenerering som ett inlärningsproblem genom att gemensamt lära sig en linjär omvandling och en ordbok för att koda pixelvärden. Vi analyserar också olika fotometriska invarianta färgrymder samt populära färgbeständighetsalgoritm för personreidentifikation. Med färg som den enda signalen, jämför vi vår strategi med alla de fotometriska invarianta färgrymder och visa överlägsen prestanda över alla av dem. Tillsammans med andra inlärda funktioner på låg nivå och hög nivå får vi lovande resultat i VIPeR, Person Re-ID 2011, och CAVIAR4REID-datauppsättningar.
|
Variord m.fl. REF använde ett datadrivet ramverk för att koda pixelvärden genom att gemensamt lära sig en linjär transformation och en ordbok.
| 14,313,029 |
Learning Invariant Color Features for Person Reidentification
|
{'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']}
| 14,539 |
Detta dokument presenterar vår lösning för att möjliggöra för en fyrhjuling helikopter att självständigt navigera ostrukturerade och okända inomhusmiljöer. Vi jämför två sensorsviter, speciellt en laserslinga och en stereokamera. Laser- och kamerasensorer är både väl lämpade för att återställa helikopterns relativa rörelse och hastighet. Eftersom de använder olika signaler från miljön, varje sensor har sina egna fördelar och begränsningar som är gratis till den andra sensorn. Vårt slutliga mål är att integrera båda sensorerna ombord på en enda helikopterplattform, vilket leder till utveckling av ett autonomt helikoptersystem som är robust för allmänna inomhusmiljöförhållanden. I detta dokument presenterar vi resultat i denna riktning och beskriver de viktigaste komponenterna för autonom navigering med hjälp av någon av de två sensorerna separat.
|
En AscTec Hummingbird quadrotor REF samlar in sensordata från både en Hokuyo URG laserrangefinder och en stereokamera, och sänder
| 56,073,370 |
Stereo vision and laser odometry for autonomous helicopters in GPS-denied indoor environments
|
{'venue': 'Defense + Commercial Sensing', 'journal': None, 'mag_field_of_study': ['Physics', 'Computer Science', 'Engineering']}
| 14,540 |
Många datamängder innehåller rik information om objekt, såväl som parvisa relationer mellan dem. Till exempel, i nätverk av webbplatser, vetenskapliga papper och andra dokument, varje nod har innehåll som består av en samling ord, samt hyperlänkar eller citeringar till andra noder. För att kunna dra slutsatser om sådana datamängder och göra förutsägelser och rekommendationer är det bra att ha modeller som kan fånga upp de processer som genererar texten vid varje nod och länkarna mellan dem. I denna uppsats kombinerar vi klassiska idéer inom ämnesmodellering med en variant av den blockmodell för blandade medlemmar som nyligen utvecklats inom statistikfysiken. Den resulterande modellen har fördelen att dess parametrar, inklusive blandningen av ämnen i varje dokument och de resulterande överlappande samhällen, kan härledas med en enkel och skalbar förväntan-maximering algoritm. Vi testar vår modell på tre datauppsättningar, utför oövervakad ämnesklassificering och länkförutsägelse. För båda uppgifterna överträffar vår modell flera befintliga state-of-the-art metoder, uppnå högre noggrannhet med betydligt mindre beräkning, analysera en datauppsättning med 1,3 miljoner ord och 44 tusen länkar på några minuter.
|
Zhu, m.fl. kombinera klassiska idéer inom ämnesmodellering med en variant av blockmodell med blandat medlemskap som nyligen utvecklats i den statistiska fysikgemenskapen REF.
| 176,425 |
Scalable Text and Link Analysis with Mixed-Topic Link Models
|
{'venue': 'Proc. 19th SIGKDD Conference on Knowledge Discovery and Data Mining (KDD) 2013, 473-481', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics', 'Mathematics']}
| 14,541 |
Idag spelar molnet en central roll i lagring, bearbetning och distribution av data. Trots att bidra till den snabba utvecklingen av IoT-tillämpningar, har den nuvarande IoT-moln-centrerad arkitekturen lett till en myriad av isolerade data silos som hindrar den fulla potentialen av holistisk datadriven analys inom IoT. I detta dokument presenterar vi en blockchain-baserad design för sakernas internet som ger en distribuerad åtkomstkontroll och datahantering. Vi avviker från den nuvarande förtroendemodellen som delegerar åtkomstkontroll av våra data till en centraliserad betrodd myndighet och i stället ger användarna tillgång till data. Vår design är skräddarsydd för IoT-dataströmmar och möjliggör säker datadelning. Vi möjliggör en säker och motståndskraftig åtkomstkontrollhantering, genom att använda blockkedjan som en granskningsbar och distribuerad åtkomstkontrollskikt till lagringslagret. Vi underlättar lagring av tidsserie IoT-data i utkanten av nätverket via ett lokalt-medvetet decentraliserat lagringssystem som hanteras med blockchain-tekniken. Vårt system är agnostiskt för de fysiska lagringsnoder och stöder såväl utnyttjande av molnlagringsresurser som lagringsnoder. Med framväxten av nätverksanslutna inbyggda enheter kallas IoT, vi bevittnar ett ständigt ökande antal innovativa applikationer. Det nuvarande ekosystemet för sakernas internet består vanligtvis av utsedda lågeffektenheter som är utrustade med sensorer som samlar in data. Dessa data lagras sedan via appar för särskilda ändamål (dvs. gateways för applikationslager) i en tredje parts molnlagring för vidare behandling. Denna arkitektur med kaminrör [31] har resulterat i isolerade datasilor, där användarna har begränsad kontroll över sina data och hur de används. Användare måste lita på molnet och programleverantörer
|
Hossein m.fl. REF införa en distribuerad datalagring ram för IoT-program med hjälp av blockchain.
| 207,561,485 |
Towards Blockchain-based Auditable Storage and Sharing of IoT Data
|
{'venue': "CCSW '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,542 |
Abstract-This paper beskriver en skalbar metod för parallellisering av provtagningsbaserade rörelseplaneringsalgoritmer. Den delar in konfigurationsutrymme (C-utrymme) i (möjligen överlappande) regioner och använder parallellt standardiserade (sekvensbaserade) provtagningsbaserade planerare för att konstruera färdplaner i varje region. Därefter kopplas de regionala färdplanerna i angränsande regioner parallellt samman för att bilda en global färdplan. Genom att dela upp utrymmet och begränsa lokaliseringen av anslutning försök, minskar vi arbetet och inter-processor kommunikation i samband med närmaste granne beräkning, en kritisk flaskhals för skalbarhet i befintliga parallella rörelse planeringsmetoder. Vi visar att vår metod är tillräckligt allmän för att hantera en mängd olika planeringsprogram, inklusive de allmänt använda Probabilistic Roadmap (PRM) och snabbt utforskande Random Trees (RRT) algoritmer. Vi jämför vår strategi med två andra befintliga parallella algoritmer och visar att vår strategi uppnår bättre och mer skalbara prestanda. Vår strategi uppnår nästan linjär skalbarhet på en 2400 kärna LINUX kluster och på en 153.216 kärna Cray XE6 petaskala maskin.
|
I REF genomförs rörelseplaner parallellt.
| 10,562,176 |
A scalable method for parallelizing sampling-based motion planning algorithms
|
{'venue': '2012 IEEE International Conference on Robotics and Automation', 'journal': '2012 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Computer Science']}
| 14,543 |
Förändringen av den geografiska situationen som väder och klimat gör det svårt för jordbrukare att förbereda marken för lämplig skörd. Följaktligen är de beroende av regnvatten risfält. Detta papper förklarar användningen av fuzzy enkel tillsats viktning för att rangordna de alternativa grödor som lämpar sig för planterade i varje deldistrikt i Minahasa Tenggara. Detta informationssystem kan användas av lokala myndigheter och jordbrukare för att fastställa vilken typ av gröda som skall planteras. Denna information baseras på geofysikdata som finns i
|
I dokumentet REF gör förändringen av den geografiska situationen som väder och klimat det svårt för jordbrukare att förbereda marken för lämplig gröda.
| 7,840,339 |
Fuzzy Simple Additive Weighting Algorithm to Determine Land Suitability for Crop in Minahasa Tenggara
|
{'venue': None, 'journal': 'International Journal of Computer Applications', 'mag_field_of_study': ['Computer Science']}
| 14,544 |
Sammanfattning - Drivs av dynamiska marknadskrav utforskar företag kontinuerligt samarbeten med andra för att tillföra värde till sina tjänster och ta vara på nya marknadsmöjligheter. Uppnå företagssamarbete underlättas av Enterprise Application Integration och Business-to-Business strategier som använder arkitektoniska paradigm som Service Orienterad Arkitektur och införliva tekniska framsteg i nätverk och dator. Flexibilitet är dock fortfarande en stor utmaning i samband med samarbete mellan företag. Hur kan förändringar i krav och möjligheter återspeglas i samarbetslösningar med minimal tid och ansträngning och med maximal återanvändning av befintliga applikationer? I detta dokument föreslås en strategi för en mer flexibel integrering av företagsansökningar i samband med tjänsteförmedling. Vi uppnår detta genom att kombinera målbaserade, modelldrivna och serviceorienterade tillvägagångssätt. I synnerhet uppmärksammar vi särskilt separationen av affärsregler från affärsprocessen i integrationslösningen. Specificera kraven som målmodeller, vi separerar de delar som är mer benägna att utvecklas över tid när det gäller affärsregler. Dessa affärsregler görs sedan körbara genom att exponera dem som webbtjänster och införliva dem i utformningen av affärsprocessen. Om affärsreglerna ändras förblir alltså affärsprocessen opåverkad. Slutligen innehåller detta dokument också en utvärdering av flexibiliteten i vår lösning i förhållande till det nuvarande arbetet inom forskning om flexibilitet i affärsprocesser.
|
Dessa affärsregler görs sedan körbara genom att exponera dem som webbtjänster och införliva dem i utformningen av affärsprocessen REF.
| 7,481,381 |
Towards a Flexible Service Integration through Separation of Business Rules
|
{'venue': '2010 14th IEEE International Enterprise Distributed Object Computing Conference', 'journal': '2010 14th IEEE International Enterprise Distributed Object Computing Conference', 'mag_field_of_study': ['Computer Science', 'Medicine']}
| 14,545 |
Populariteten av samverkande taggning webbplatser har skapat nya utmaningar och möjligheter för designers av webbobjekt, såsom elektronikprodukter, resor resvägar, populära bloggar, etc. Ett ökande antal människor vänder sig till online-recensioner och användardefinierade taggar att välja mellan bland konkurrerande objekt. Detta skapar en möjlighet för designers att bygga objekt som sannolikt kommer att locka önskvärda taggar när de publiceras. I detta papper, vi anser ett nytt optimeringsproblem: med tanke på en utbildning datauppsättning av befintliga objekt med sina användarangivna taggar, och en frågeuppsättning önskvärda taggar, designa k bästa nya objekt förväntas locka maximalt antal önskvärda taggar. Vi visar att detta problem är NPComplete, även om enkla Naive Bayes Classifiers används för tagg förutsägelse. Vi presenterar två principiella algoritmer för att lösa detta problem: a) en exakt "two-tier" algoritm (baserad på top-k frågetekniker), som utför mycket bättre än den naiva brute-force algoritm och fungerar bra för måttliga problemfall, och b) en ny polynom tid approximation algoritm med bevisbara fel bundet för större problemfall. Vi utför detaljerade experiment på syntetiska och verkliga data kröp från webben för att utvärdera effektiviteten och kvaliteten på våra föreslagna algoritmer.
|
I REF är problemet att utforma ett nytt objekt (eller k nya objekt) som kan locka det maximala antalet taggar som anges i en fråga.
| 8,436,088 |
Leveraging collaborative tagging for web item design
|
{'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,546 |
Abstract-I Multi-Armed Bandit (MAB) problem, det finns en given uppsättning av armar med okända belöningsmodeller. Varje gång väljer en spelare en arm att spela, syftar till att maximera den totala förväntade belöningen över en horisont av längd. Ett tillvägagångssätt som bygger på en deterministisk sekvensering av prospektering och exploatering (DSE) utvecklas för att utforma sekventiella strategier för urval av armen. Det visas att för alla ljus-tailed belöning fördelningar, DSEE uppnå optimal logaritmisk ordning av ånger, där ånger definieras som den totala förväntade belöningsförlusten mot det ideala fallet med kända belöningsmodeller. För tunga-tailed belöningsutdelningar, DSEE får ångra när ögonblicken av belöningsutdelningar finns upp till den th ordningen för och för. Med kunskapen om en upperbound på en ändlig stund av tung-tailed belöning fördelningar, erbjuder DSEE optimal logaritmisk ånger ordning. Den föreslagna DSEE-metoden kompletterar det befintliga arbetet med MAB genom att ge motsvarande resultat för allmänna belöningar. Dessutom, med en tydligt definierad tonfiskbar parameter-kardinalitet prospekteringssekvensen, DSEE metoden är lätt att förlänga till variationer av MAB, inklusive MAB med olika mål, decentraliserad MAB med flera spelare och ofullständiga belöningsobservationer under kollisioner, rastlös MAB med okänd dynamik, och kombinatoriska MAB med beroende armar som ofta uppstår i nätverk optimeringsproblem såsom den kortaste vägen, minsta sp anning träd, och dominerande set problem under okända slumpmässiga vikter. Index Terms-Multi-armade bandit, beklaga, deterministiska sekvensering av prospektering och exploatering, decentraliserade multi-armade bandit, rastlösa multi-armade bandit, combinatorial multi-armad bandit.
|
I REF utvecklas en algoritm baserad på deterministisk sekvensering av prospektering och exploatering (DSE) där tiden är uppdelad i exploaterings- och prospekteringssekvenser.
| 6,188,617 |
Deterministic Sequencing of Exploration and Exploitation for Multi-Armed Bandit Problems
|
{'venue': 'IEEE Journal of Selected Topics in Signal Processing', 'journal': 'IEEE Journal of Selected Topics in Signal Processing', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
| 14,547 |
I detta dokument föreslås en snabb regionbaserad Convolutional Network-metod (Fast R-CNN) för objektdetektering. Snabb R-CNN bygger på tidigare arbete för att effektivt klassificera objektförslag med hjälp av djupa konvolutionsnätverk. Jämfört med tidigare arbete använder Fast R-CNN flera innovationer för att förbättra tränings- och testhastigheten och samtidigt öka detektionsnoggrannheten. Snabb R-CNN tränar det mycket djupa VGG16 nätverket 9× snabbare än R-CNN, är 213× snabbare vid test-tid, och uppnår en högre mAP på PASCAL VOC 2012. Jämfört med SPPnet, snabb R-CNN tåg VGG16 3× snabbare, testar 10× snabbare, och är mer exakt. Snabb R-CNN genomförs i Python och C++ (med Caffe) och finns tillgänglig under MIT-licensen med öppen källkod på https: //github.com/rbgirshick/fast-rcnn.
|
Till exempel snabb regionbaserade konvolutionella neurala nätverk (R-CNN) REF och mask R-CNN [
| 206,770,307 |
Fast R-CNN
|
{'venue': '2015 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2015 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
| 14,548 |
Abstract-Properly hantering parallax är viktigt för videostabilisering. Befintliga metoder som uppnår målet kräver antingen 3D-rekonstruktion eller långa funktionsbanor för att genomdriva subrymds- eller epipolära geometriska begränsningar. I den här artikeln presenterar vi en robust och effektiv teknik som fungerar på allmänna videor. Det uppnår högkvalitativ kamerarörelse på videor där 3D rekonstruktion är svårt eller långa funktionsbanor inte är tillgängliga. Vi representerar varje bana som en Bé zier-kurva och upprätthåller de rumsliga sambanden mellan banor genom att bevara de ursprungliga förskjutningarna av angränsande kurvor. Vår teknik formulerar stabilisering som ett spatialtemporaloptimeringsproblem som finner smidiga funktionsbanor och undviker visuell förvrängning. Bé zier-representationen möjliggör en stark smidighet i varje funktionsbana och minskar antalet variabler i optimeringsproblemet. Vi stabiliserar också videor på ett strömmande sätt för att uppnå skalbarhet. Experimenten visar att vår teknik uppnår högkvalitativ kamerarörelse på en mängd utmanande videor som är svåra för befintliga metoder.
|
Wang m.fl. REF representerade varje bana som en Bezier-kurva och jämnade ut dem med en spatio-temporell optimering.
| 10,580,690 |
Spatially and Temporally Optimized Video Stabilization
|
{'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Medicine', 'Computer Science']}
| 14,549 |
Vi rapporterar resultat från en domänanpassningsuppgift för statistisk maskinöversättning (SMT) med hjälp av cache-baserade adaptiva språk- och översättningsmodeller. Vi tillämpar en exponentiell sönderfallsfaktor och integrerar cachemodellerna i en standardfrasbaserad SMT-dekoder. Utan behov av domänspecifika resurser får vi en relativ förbättring på 2,6 % i genomsnitt i BLEU-poäng med hjälp av vårt dynamiska anpassningsförfarande.
|
REF föreslår cachebaserade språk- och översättningsmodeller, som bygger på nyligen översatta meningar.
| 3,194,124 |
Context Adaptation in Statistical Machine Translation Using Models with Exponentially Decaying Cache
|
{'venue': 'Proceedings of the 2010 Workshop on Domain Adaptation for Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,550 |
Abstract-I utformningen av slutet-loop nätverkskontrollsystem (NCS), inducerad fördröjning överföring mellan sensorer och kontrollstationen är en ofta närvarande fråga som äventyrar kontrollen prestanda och kan även orsaka instabilitet. Ett mycket relevant scenario där nätrelaterade förseningar måste undersökas är kostsamt utnyttjande av kommunikationsresurser. Mer exakt, avancerad kommunikationsteknik, t.ex. 5G, kan erbjuda latency-varierande informationsutbyte för olika priser. Den inducerade förseningen blir därför en beslutsvariabel. Det handlar då om beslutsfattarens vilja att antingen betala de kostnader som krävs för att ha låg latent tillgång till kommunikationsresursen, eller fördröja tillgången till ett reducerat pris. I denna artikel, vi anser att optimal pris-baserade bi-variabel beslutsfattande problem för enloop NCS med en stokastisk linjär tid-invariant system. Förutsatt att kommunikation medför kostnader så att överföring med kortare fördröjning blir dyrare, bestämmer en beslutsfattare omkopplingsstrategin mellan kommunikationslänkar för olika förseningar så att en optimal balans mellan kontrollprestanda och kommunikationskostnader upprätthålls. I den här artikeln visar vi att, under milda antaganden om tillgänglig information för beslutsfattare, separationsfastigheten håller mellan den optimala länken val och kontroll politik. Eftersom kostnadsfunktionen är sönderfallbar beräknas den optimala politiken på ett effektivt sätt.
|
Upphovsmän i REF föreslog också en optimal fördröjningsberoende provtagning av LQG när det är kostsamt att använda kommunikationsresurser.
| 50,774,489 |
Optimal LQG Control under Delay-dependent Costly Information
|
{'venue': 'IEEE Control Systems Letters ( Volume: 3, Issue: 1, Jan. 2019 )', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,551 |
Kort efter dess införande i 2009, Bitcoin har antagits av it-brottslingar, som förlitar sig på sin pseudonymitet för att genomföra praktiskt taget ospårbara bedrägerier. En av de typiska bedrägerier som fungerar på Bitcoin är de så kallade Ponzi system. Dessa är bedrägliga investeringar som återbetalar användare med de medel som investeras av nya användare som ansluter sig till systemet, och implodera när det inte längre är möjligt att hitta nya investeringar. Trots att Ponzi-projekten är olagliga i många länder ökar de nu på Bitcoin, och de fortsätter att locka nya offer, som plundras på miljontals dollar. Vi använder data mining tekniker för att upptäcka Bitcoin adresser relaterade till Ponzi system. Vår utgångspunkt är en datauppsättning av funktioner i verkliga Ponzi system, som vi konstruerar genom att analysera, på Bitcoin blockchain, de transaktioner som används för att utföra bedrägerier. Vi använder denna datauppsättning för att experimentera med olika algoritmer för maskininlärning, och vi bedömer deras effektivitet genom standard valideringsprotokoll och prestandamått. Den bästa av de klassificeringar vi har experimenterat kan identifiera de flesta av Ponzi system i datasetet, med ett lågt antal falska positiva.
|
Nyligen, Bartoletti et al. REF föreslog ett tillvägagångssätt för datautvinning för att upptäcka Bitcoin-adresser som är involverade i Ponzi-system.
| 3,681,681 |
Data Mining for Detecting Bitcoin Ponzi Schemes
|
{'venue': '2018 Crypto Valley Conference on Blockchain Technology (CVCBT)', 'journal': '2018 Crypto Valley Conference on Blockchain Technology (CVCBT)', 'mag_field_of_study': ['Computer Science']}
| 14,552 |
En tidigare tidning [J. Opt. SOC. Det är jag. En 1, 775 (1984)) beskrev en allmän ideal discriminator (en stimuli-definierad-exakt observatör) vars känslighet begränsas endast av den initiala sekvensen av mekanismer i det visuella systemet-optiken i ögat, receptor lattice, receptoroptik, och fotopigment spektral sensibilitet. I detta dokument härleds ytterligare egenskaper hos modellen, och en liknande modell (en Stimuli-Definierad-Statistiskt observatör) utvecklas för förhållanden med stimulans osäkerhet. För att testa modellernas förutsägelser mättes tvåpunktsintensitetsdiskriminering, upplösning och separationsdiskriminering som en funktion av punktenergi och bakgrundsluminans. Tre viktiga skillnader konstaterades mellan resolution och separationsdiskriminering: (1) På måttliga till höga nivåer är separationströskeln mycket lägre än avvecklingströskeln. (2) Vid låg intensitet är upplösningströskeln lägre än separationströskeln. (3) Separationströskeln minskar snabbare än upplösningströskeln som en funktion av intensiteten. Alla tre egenskaper förutspåddes av modellerna. Som väntat är dock de kvantitativa anpassningarna inte korrekta. Värdet av modellerna är att de tillåter en att bestämma, för nästan godtycklig visuell diskriminering uppgifter, vilka aspekter av prestanda redovisas av preneurala faktorer. Dessutom ger modellerna ett exakt mått på den diskrimineringsinformation som finns tillgänglig hos receptorerna. Detta gör det möjligt att på ett meningsfullt sätt jämföra mänskliga prestationer mellan olika uppgifter. Prestanda i en given visuell diskriminering uppgift kan begränsas av ett stort antal fysiska och fysiologiska faktorer som sträcker sig från fysiken av stimuli upp till mottagliga fält egenskaper kortikala enheter och bortom. Hur går man till väga för att utveckla och testa rimliga teorier om diskriminering för ett system av sådan komplexitet? Ett rigoröst nytt tillvägagångssätt," baserat på teorin om idealiska observatörer, 2 -7 utgör grunden för den nuvarande studien. Vår strategi kan bäst benämnas en sekventiell mekanism analys. Kärnan i denna analys är att behandla det tidiga visuella systemet som en sekvens av informationsöverföring eller -behandling stadier. Vid hornhinnan innehåller en visuell stimulans en viss ändlig, total mängd information som potentiellt skulle kunna användas för att utföra någon diskriminering uppgift. Denna information överförs sedan genom och bearbetas genom en lång rad steg, med början i det optiska systemet. Målet med en sekventiell mekanismanalys är att kvantitativt fastställa vilken information som är relevant för diskrimineringsuppgiften som överförs i varje steg och, på motsvarande sätt, vilken information som går förlorad. I princip kan man därmed avgöra hur mycket, och på vilket sätt, varje steg i det visuella systemet bidrar till den övergripande diskrimineringen. Logiken i att göra en sekventiell-mekanik analys är inte ny. Det finns faktiskt många exempel på denna typ av forskningsstrategi i visionslitteraturen. Det klassiska exemplet är analysen av informationen om färgdiskriminering som förlorats på receptorerna på grund av förekomsten av ett litet antal fotopigment och den unika egenskapen (t.ex., se Brindley 8 ). Vad som är nytt med vår strategi är att den använder idealiska discriminatorer tillsammans med sunda fysiologiska data för att noggrant utvärdera den information som överförs i varje steg, med början vid hornhinnan. Detta papper och en tidigare beskriver våra senaste försök att tillämpa en sekventiell-mekanik analys på alla preneurala mekanismer för visuell bearbetning upp genom nivån av kvantabsorption i fotopigmenten. I synnerhet har vi försökt att fastställa bidragen från dessa initiala fysiologiska mekanismer till prestanda i rumsliga och intensitets-diskrimineringsuppgifter. En strikt tillämpning av en analys av sekventiell mekanik kräver utveckling av kvantitativa modeller av det slag som illustreras i bild. 1................................................................ Det finns tre steg i utvecklingen av dessa modeller. Den första är att få en fullständig representation av stimuli. För att modellera den totala information som är tillgänglig för diskriminering måste denna representation innehålla en beskrivning av stimulinas intensitetsfördelning och våglängdssammansättning över tiden samt en beskrivning av antalet buller och andra variabilitetskällor i stimulina. På grund av stimulusbuller är samma nominella stimulus inte fysiskt detsamma från försök till försök. Således de två nominella stimuli i Bild. 1 är representerade som uppsättningar. Det andra steget är att utveckla en kvantitativ representation eller modell av de fysiologiska mekanismer som övervägs. De fasta lådorna i Bild. 1 representerar den initiala sekvensen av mekanismer i den visuella vägen upp till fotopigmenten. Dessa är de enda mekanismer som kommer att beaktas i detta dokument, men i princip skulle det som uppnås för dessa steg så småningom kunna utvidgas till ytterligare nivåer i den visuella kedjan. Det tredje steget är att mäta all information som har överförts genom en mekanism eller en sekvens av mekanismer. Den överförda informationen kan mätas med en maskin, en idealisk diskriminator, som använder all information för att utföra uppgiften optimalt. Denna ideala discriminators prestanda är per definition ett exakt mått på all överförd information. Utformningen av ideala discriminatorer är ett vanligt problem i statistisk beslutsteori 9 och är precis den typ av problem som löstes under utvecklingen av teorier om ideala observatörer i både vision och provspelning. 2 -7 Som visas i bild. 1, avgörande för analysen är idén om att byta den idealiska discriminator till resultaten av de olika Fig. 1................................................................ Strukturen av sekventiella mekanismer modeller. Det finns tre delar: 1) en fullständig representation av stimuli, 2) en modell av de fysiologiska mekanismerna, och 3) en idealisk discriminator som kan ställas om till utgången av någon mekanism. Undersökta mekanismer. Genom att tillämpa den lämpliga ideala discriminatorn både före och efter ett skede kan man avgöra exakt hur mycket information som var relevant för diskrimineringen som gick förlorad i det skedet. Genom att jämföra prestandan hos den idealiske discriminatorn med människans prestanda, kan man uppskatta hur mycket information som gick förlorad i de stadier som följde efter den som avlyssnades av den idealiske discriminatorn. Med andra ord, om modellen för de fysiologiska mekanismer som används i analysen är sund, då återstår bara skillnaderna mellan ideal och verklig prestanda att förklara. En relaterad fördel med att genomföra en strikt sekventiell mekanismanalys är att den ger en bättre förståelse för de stimuli som används i diskrimineringsuppgifter. En idealisk discriminator placerad på en tidig nivå av det visuella systemet mäter den maximala mängden information som är tillgänglig för de högre nivåerna. Detta gör det möjligt att på ett meningsfullt sätt jämföra informationsinnehållet i olika stimuli (förutsatt att den fysiologiska modellen är sund). Om en förändring av stimulina leder till små eller inga förändringar i ideal-discriminator prestanda, då finns det liten eller ingen förändring i den mängd information som finns tillgänglig för att utföra diskrimineringen. Vi bör därför inte bli förvånade om människans prestationer inte förändras i någon större utsträckning. Å andra sidan, om den ideala diskrimineringen i hög grad påverkas, bör vi inte bli förvånade om den mänskliga prestationen i hög grad påverkas. Med andra ord, den null förväntan är att mänsklig prestation bör följa ideal prestanda kvalitativt. Om detta inte sker, då vet vi att det sensoriska systemet ignorerar eller är okänsligt för vissa dimensioner av information som finns i stimuli. Geislerl visade till exempel att den tillgängliga informationen på receptorerna vid hyperakuta uppgifter i allmänhet är mycket större än den i upplösningsuppgifter. Det är därför inte förvånande att människor utför mycket bättre uppgifter i hyperakuiteten. Observera att analyser av sekventiella mekanismer kan utvidgas till uppgifter där observatören är skyldig att klassificera stimuli i mer än två kategorier (dvs. identifierings- eller klassificeringsuppgifter). När det gäller Fig. 1, Vi ökar helt enkelt antalet stimuli, öka antalet svarsalternativ med en lika mängd, och ersätta den idealiska discriminator med en idealisk klassificerare. Geisler' beskrev en sekventiell mekanism för rumslig och intensitetsrelaterad diskriminering och rapporterade sin prestation i tvåpunktsakuitet, hyperakuitet och uppgifter om intensitetsdiskriminering. I följande avsnitt får vi (1) ytterligare egenskaper hos den ursprungliga modellen, (2) utvecklar en modell som tillåter positionell och annan typ av stimulansosäkerhet, och (3) rapporterar resultaten av psykofysiska experiment där vi mätte tvåpunktsintensitetsdiskriminering, upplösning och separationsdiskriminering som en funktion av stimulansintensitet och anpassning-bakgrund luminans. Även om de sekventiell-mekanik modeller som beskrivs nedan endast tillämpas på de olika tvåpunkts diskriminering uppgifter, modellerna är ganska allmänna och kan tillämpas på nästan alla rumsliga-, intensitet-, eller färg-diskriminering uppgift. Olika sekventiell-mekanik modeller kan särskiljas genom det utbud av stimuli som de tillämpas på och genom den uppsättning fysiologiska mekanismer som modelleras. I detta avsnitt beskriver vi två modeller, en av dem en generalisering av den andra. Båda tar hänsyn till samma fysiologiska mekanismer (fasta rutor i bild). 1 ), men de skiljer sig i intervallet för stimuli som beaktas. Den första modellen gäller experimentella förhållanden där den enda källan till försöksvariationer i en given stimulans är den som beror på fluktuationer i antal. Eftersom stimuli är exakt definierade förutom den inneboende Poisson slumpmässighet av ljus, vi kallar det en Stimuli-Definierad-Exakt, eller SDE, modell. För de flesta välkontrollerade psykofysiska experiment är det rimligt att anta att den enda källan till stimulansbuller är kvantala fluktuationer. Det är dock viktigt att utvidga modellen till förhållanden där det finns ytterligare källor till buller eller osäkerhet. Dessa kan omfatta slumpmässiga variationer i stimulits position, form, varaktighet eller våglängdssammansättning. På grund av den extra slumpmässiga variationen i stimuli, kallar vi den mer allmänna modellen en Stimuli-Definierad-Statistiskt, eller SDS, modell. Utvecklingen av SDS-modellerna är viktig av flera skäl. För det första är de lämpliga modeller för att utvärdera visuell prestanda i uppgifter med ytterligare stimulans variation. Diskriminering eller identifiering i den verkliga världen innebär till exempel att man tilldelar två eller flera kategorier ett brett spektrum av stimuli. En inspektör på en monteringslinje kan behöva göra åtskillnad mellan godtagbara eller deformerade delar. Även om deformationerna alltid är av samma enkla typ, är de stimuli som ska utvärderas alltid i olika riktningar och positioner. För det andra är det möjligt att verkliga visuella system oavsiktligt producerar en betydande nivå av inre buller. Till exempel den första mekanismen i Bild. 1 Deriveringen av vår SDE modell för foveal stimuli sammanfattas här; ytterligare detaljer ges på annat håll. 1 Det första steget är att ange stimuli. I denna presentation är uppmärksamheten begränsad till korta, breda band stimuli (t.ex. vit volfram ljus) presenteras monokulärt under god fixering. Således en stimulans specificeras genom att ge sin intensitet fördelning och varaktighet. Poissonprocessen beskriver exakt den enda källan till stimulusbuller-kvantala fluktuationer. Nästa steg är att utveckla en kvantitativ representation av de fysiologiska mekanismerna i de fasta lådorna på Fig. 1................................................................ 0 och Ditchburn" indikerar att vid god fixering är standardavvikelsen mellan ögonposition och försök mellan 2 och 5 min båge. Om dessa slumpmässiga variationer i ögats position inte övervakas korrekt av det visuella systemet, skulle de effektivt kunna införa en viss positionsbuller i stimuli i alla försök. Ett syfte med att utveckla SDS-modellen var dock att bedöma de potentiella effekterna av positionsbuller från ögonrörelser. För tillfället utgår vi alltså från ett fast öga. Synoptiken i ögat vid en given excentricitet kan beskrivas med en punkt-spridd funktion, h(x, y). Den punktspridda funktion som används här härrör från den foveal line-spread funktion som rapporterats av Campbell och Gubisch1 2 för vitt ljus och en 3-mm elev. Deras line-spread funktion beskrivs på ett tillfredsställande sätt av summan av två Gaussiska funktioner; alltså ges point-spread funktionen genom var parametervärdena anges i bildrubriken. 6 nedan. Denna punkt-spridning funktion omfattar inte golvet av herrelöst ljus som beror på spridning i okulära medier. Det är osannolikt att mer än 10 % av allt inkommande ljus sprids diffust. För ett brett spektrum av stimulansvillkor, inklusive de som behandlas här, har vi visat att en 10-procentig nivå av herrelöst ljus har mindre effekter på prestandan hos vår SDE-observatör. På så sätt ingick inte herrelöst ljus i beräkningen av de nuvarande förutsägelserna. Det måste dock tas med under vissa stimulansförhållanden. De okulära medierna fungerar också som ljusfilter. Vi har använt de uppskattningar av okulär överföring som rapporterats av Wyszecki och Stiles. 13 Det finns en annan potentiell källa till informationsförlust i optiken. Vid stadig fixering varierar ögats ackommodativa tillstånd vid cirka 2 Hz men med en amplitud på mindre än 0,25 D. 14 Genom att ändra den punktspridda funktionen ovan har vi visat att denna mekanism spelar en mindre roll under de flesta omständigheter. Receptor Lattice Det antas att i fovea fotoreceptorer placeras vid noderna i en triangulär array, 15 sådan att den internodala avståndet motsvarar diametern på receptorerna (ca 0,6 min av båge). receptorerna antas vara cirkulära med en diameter på 0,6 min båge vid den bredaste delen av det inre segmentet. Det antas vidare att alla quanta som går in i det inre segmentet passerar in i skikten av fotopigment i konen. Konerna utför således en liten mängd rumslig integration (öppningseffekten). Stiles-Crawford effekt beaktas inte på grund av 3-mm elev storlek och foveal stimulans presentation. I detta papper anser vi bara kromatiskt bredband stimuli som stimulerar medel-och långvågs strutar ungefär lika. Framför allt beräknades fraktionen av effektivt absorberad quanta för en stimulans genom att först hitta dess 555-nm ekvivalent. Man antog då att hälften av dessa ekvivalenta quanta absorberas effektivt om de faller i en medel- eller långvågig kon. Kortvågslånga koner är så få till antalet, särskilt i mitten av fovea, att de kan ignoreras för rumsliga-och intensitets-diskriminering uppgifter av intresse här. Genomsnittligt absorberat Quanta Alla mekanismerna ovan kombinerades för att beräkna det genomsnittliga antalet quanta som absorberades i varje receptor. Låt 1a(x, y) vara luminansfördelningen av en stimulans i candela per kvadratmeter; sedan det genomsnittliga antalet fotoner absorberas effektivt av ith receptorn i lattice, vars position betecknas av koordinaterna (xi, yi), ges av där D är varaktigheten av stimulansen i sekunder, S är pupillområdet i kvadratmillimeter, T 555 är transmittansen av okulära medier vid 555 nm, E 555 är kvanteffektiviteten av fotopigmenten vid 555 nm, h(x, y) är punktspridd funktion, och r(x, y) är receptorformen (i detta fall en cylinder med en diameter på 0,6 min). Symbolen * representerar konvolutionens funktion. Inget visuellt system är fritt från inneboende buller. Det finns utan tvekan flera källor till inneboende buller i verkliga visuella system. Vi inkluderar i vår modell ett additivt, mörkt ljus brus av fotonliknande händelser. 1 6 Sådant buller måste förekomma i någon mån i något verkligt visuellt system, om det inte av någon annan anledning än tillfällig termisk nedbrytning av fotopigmentmolekyler. Den faktiska frekvensen av fotonliknande händelser i mänskliga fotoreceptorer är inte känd vid denna tidpunkt. Det ingår här under antagandet att övertygande uppskattningar av dess värde/värden kommer att bli tillgängliga i framtiden. Låt x 0 vara det genomsnittliga antalet bullerhändelser per receptor i tidsperiod D. Då det genomsnittliga antalet effektiva kvantabsorberingar i ith receptorn ges av Poisson Noise Under den fasta tidsperioden D, antalet effektiva kvantabsorberingar Z(xi, yi)) i ith fotoreceptor av lattice beskrivs av Poisson densitet: där ai är en förkortning för a (xi, yi). Idealisk discriminator För närvarande får vi prestandan hos den idealiska discriminatorn när den placeras vid utgången av den sista av de ovan nämnda mekanismerna (se bild. 1 )............................................................................................................... Vid varje försök med experimentet måste den idealiske discriminatorn bestämma vilka av två alternativ (a eller A) som presenterades. Det kan bevisas att discriminatorn grundar sitt beslut på sannolikhetsförhållandet eller någon monoton omvandling av det. Intuitionen bakom användningen av sannolikhetsförhållandet är följande. På varje försök av experimentet finns det några mönster av kvantabsorption över receptorer som kan representeras av vektorn (Z1, Z 2,. ., Zn ), där Zi (en förkortning för Z (xi, yi)) är antalet quanta absorberas i ith receptorn. Den idealiska discriminatorn beräknar först sannolikheten för att få detta mönster av absorptioner förutsatt att stimulans a presenterades. Därefter beräknar den sannolikheten för att få detta mönster av absorptioner förutsatt att stimulans / presenterades. Den idealiska discriminatorn väljer sedan helt enkelt det mest sannolika stimulansalternativet. (Detta förutsätter att alternativen är lika sannolika och att discriminatorn försöker maximera sin andel av rätt svar.) Det är inte svårt att visa" att regeln om sannolikhetsbeslut är likvärdig med följande regel. Beräkna mängden Z med formeln Z = EI Zi ln(i/ai). (5) Om Z överstiger vissa konstant c, svara att stimulans / var närvarande; om Z är mindre än c, svara att stimulans a var närvarande. Eftersom beslutsvariabeln Z bara är den viktade summan av svaret för varje receptor, kan den beräknas med en enda linjär viktningsfunktion (receptionsfält) över receptormatrisen.1 Känslighet Känsligheten hos den ideala discriminatorn ges till god approximering genom följande formel för d': Tröskeln i en diskrimineringsuppgift uppnås när d' uppnår något kriteriumvärde. I en enkel-interval forced-choice uppgift är detta värde typiskt 1.36, vilket motsvarar 75% korrekt när de två alternativen presenteras slumpmässigt på varje försök med en sannolikhet på 0,5. I en två-interval forced-choice uppgift, ett d'värde på 0,96 motsvarar 75% korrekt. SDS-modellen är en direkt generalisering av SDE-modellen där vi tillåter källor till stimulansvariabilitet utöver quanta fluktuationer. Dessa ytterligare bullerkällor kan beskrivas med en osäkerhetsfunktion. Osäkerhet Funktion Låta v = (v1, v 2,., vm ) vara den uppsättning parametrar som kan variera från rättegång till rättegång, vilket ger osäkerhet. När det gäller positionsvariabilitet v = (x, y)-den rumsliga positionen för stimulansen. I allmänhet kan dessa parametrar representera vilken stimulansdimension som helst: storlek, varaktighet, form etc. Osäkerheten i en given situation kan sedan beskrivas med en osäkerhetsfunktion f(v), som ger sannolikheten för att få några givna parametervärden på en försök. Eftersom f (v) är en sannolikhetsdensitet funktion, måste volymen under det vara 1.0: där integralen är över alla parametrar i v. Ideal Discriminator Det kan visas (se bilaga A) att den idealiska discriminatorn använder följande beslut variabel under förhållanden av stimulansvariabilitet: I fallet med positionsbuller, den ovan sannolikhet förhållandet minskar till där C är en konstant. Om stimulans a är ett enhetligt fält (dvs. en enkel detektion uppgift) ytterligare förenkling är möjlig: där ; är det genomsnittliga antalet quanta absorberas per receptor från det enhetliga fältet. I alla ovanstående fall, om L överstiger ett kriterium nivå den idealiska diskriminator svarar att stimulans /3 var närvarande; om L faller under kriteriet diskriminator svarar att stimulans a presenterades. Lägg märke till det i EKG. (8) och (9) mängderna i exponenterna är ungefär korskorrelationen' 7 av stimulansen (Zi) med den naturliga logaritmen av den förväntade stimulansformen. Sannolikheten för ett stimulansalternativ beräknas med andra ord genom att man exponentierar signalens korskorrelation med logaritmen för stimulansalternativets form, multiplicerar med osäkerhetsfunktionen och summerar över osäkerhetsregionen. Vi övergår nu till tvåpunktsexperimenten. Resultaten från SDE- och SDS-observatörerna kommer att beskrivas i diskussionsavsnittet. Tröskelvärden för tre typer av uppgifter: intensitetsdiskriminering, separationsdiskriminering och resolution, alla med två punkters stimuli, erhölls som funktioner av intensiteten hos punktkällorna och av närvaron eller avsaknaden av en anpassningsbakgrund. Det två-interval forced-choice paradigmet användes för alla uppgifter. Tröskelvärden för intensitetsdiskriminering, upplösning och separationsdiskriminering erhölls vid fem intensitetsnivåer: 3,0, 3.4, 3.8, 4.2 och 4.6 log quanta/flash per punktkälla vid hornhinnan. Det fanns också ett villkor för intensitetsdiskriminering där endast ökningen presenterades (dvs. ett absolut tröskelvärde). Två anpassningsnivåer användes, en mörk bakgrund och en inställd på 20,8 Td (7,41 log quanta/sec deg-2 vid hornhinnan). Fastsättningspunkterna förblev konstant på 4,0 log quanta/sec per punkt vid hornhinnan. En kvinna och två män, däribland en av författarna (WG), tjänstgjorde som observatörer. Alla hade normal Snellen skärpa och färgseende. Alla tre var till en början oerfarna i hyperakuitet A. DISPELKONFIGURATION Tvåpunktsstimulans presenterades på en Hewlett-Packard 1332A display oscilloskop (P-15 fosfor) under kontroll av en PDP11 dator som också samlade in och analyserade försökspersonernas svar. Enligt tillverkarens specifikation var spotstorleken 0,3 mm. Observatörer satt i ett helt mörkt rum på ett avstånd av 504 cm från displayen. På så sätt var fläckarna 0,2 min båge i diameter. Den anpassningsbakgrunden visades på ett identiskt omfång som drevs av två oscillatorer. Ljus från den anpassningsbakgrunden introducerades i ljusets väg från stimulansdisplayen med hjälp av en halvsilverad spegel. Uppdateringsfrekvensen för båda skärmarna var inställd på 100 Hz. Försökspersonerna tittade på displayen monokulärt med höger öga genom en 3-mm konstgjord pupill-en diameter som plockades för att minimera storleken på den punktspridda funktionen." 2 En bit-barhe nackstöd kombination användes för att säkerställa stabilitet i observatörens huvud. Även om alla tre försökspersoner som testades var emmetropes, två av dem kunde (subjektivt) upprätthålla något mer exakt anpassning över längden av en session med en positiv lins infogad precis framför den konstgjorda eleven. Det bästa värdet av linsen hittades genom försök och fel. För de tre försökspersonerna var de 0,0, +0,12 och +0,25 D. Stimulansdisplayen som observatören ser visas i bild. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. Den bestod av ett nästan fyrkantigt bakgrundsfält, fyra fixeringspunkter och teststimulans. Teststimulansen för de tre uppgifterna i försöket visas i figurer. 2B-2D................................................................................................. Vid separation-och intensitets-diskriminering uppgifter basseparationen mellan de två punktkällorna, 0, alltid kvar vid 3,0 min båge. Observera att i intensitets-diskrimineringsuppgiften lades intensitetshöjningen endast till punktkällan till höger. I varje försök presenterades en varningston 0,5 sek före stimuli. Därefter blinkade de två stimuli för 100 msec (i slumpmässig ordning) separerade med ett temporalt intervall på 0,5 sek. Detta följdes av ett 1-sek svarsintervall, i slutet av vilket försökspersonerna fick respons på hörseln som visade om deras svar var korrekta eller felaktiga. Två sekunder senare kom nästa varningston. Om försökspersonen inte svarade (en sällsynt händelse), gavs ingen återkoppling och studien inkluderades inte i dataanalysen. Den totala durationen av en enskild studie, inklusive svarsinsamling och respons, var 3,4 sek.
|
Geisler och Davila REF analyserade prestandagränserna för ett idealiskt observatörsfall när signalen definieras exakt (SDE) eller när signalen definieras statistiskt (SDS).
| 16,133,471 |
Ideal discriminators in spatial vision:two-point stimuli
|
{'venue': 'Journal of the Optical Society of America. A, Optics and image science', 'journal': 'Journal of the Optical Society of America. A, Optics and image science', 'mag_field_of_study': ['Physics', 'Medicine']}
| 14,553 |
Oöverträffad modellöverföring har potential att avsevärt förbättra de djupa modellernas allmängiltighet för nya domäner. Ändå utgår den nuvarande litteraturen från att uppdelningen av måldata i olika domäner är känd som a priori. I detta dokument föreslår vi uppgiften Domain-Agnostic Learning (DAL): Hur överför man kunskap från en märkt källkodsdomän till omärkt data från godtyckliga måldomäner? För att ta itu med detta problem utformar vi en roman Deep Adversarial Disentangled Autoencoder (DADA) som kan lösa upp domänspecifika funktioner från klassidentitet. Vi demonstrerar experimentellt att när måldomänetiketterna är okända leder DADA till toppmodern prestanda på flera bildklassificeringsdatauppsättningar.
|
Jämfört med domänanpassning syftar Domain Agnostic Learning till att lära sig från en källkodsdomän och karta till godtyckliga måldomäner istället för en specifik känd måldomän REF.
| 139,105,264 |
Domain Agnostic Learning with Disentangled Representations
|
{'venue': 'Proceedings of the 36th International Conference on Machine Learning, Long Beach, California, PMLR 97, 2019', 'journal': None, 'mag_field_of_study': ['Computer Science']}
| 14,555 |
År 1974 föreslog Kolmogorov ett icke-probabilistiskt tillvägagångssätt för statistik och modellval. Låt data vara ändliga binära strängar och modeller vara ändliga uppsättningar av binära strängar. Överväg modellklasser bestående av modeller av given maximal (Kolmogorov) komplexitet. De angivna uppgifternas strukturfunktion uttrycker förhållandet mellan komplexitetsnivåns begränsning av en modellklass och den minsta log-cardinaliteten hos en modell i den klass som innehåller uppgifterna. Vi visar att strukturfunktionen bestämmer alla stokastiska egenskaper hos datan: för varje begränsad modellklass bestämmer den individuella bäst passande modellen i klassen oavsett om den "sanna" modellen är i den modellklass som övervägs eller inte. I detta läge sker detta med säkerhet, snarare än med stor sannolikhet som i det klassiska fallet. Vi kvantifierar exakt en individuell modells lämplighet med avseende på individuella data. Vi visar att-inom de uppenbara begränsningar-varje graf realiseras av strukturen funktion av vissa data. Vi bestämmer (o)computability egenskaper av de olika funktioner som övervägs och av den "algoritmiska minimala tillräcklig statistik." Index Terms-Computability, begränsad bäst passform modellval, begränsad maximal sannolikhet (ML), begränsad minsta beskrivningslängd (MDL), funktionsförutsägelse, Kolmogorov komplexitet, Kolmogorov struktur funktion, förlustkompression, minimal tillräcklig statistik, icke-probabilistisk statistik, tillräcklig statistik.
|
I ett annat papper REF (kronologiskt efter detta papper) behandlade vi utförligt alla stokastiska egenskaper hos data i termer av Kolmogorovs så kallade strukturfunktioner.
| 3,058,984 |
Kolmogorov's structure functions and model selection
|
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Physics']}
| 14,556 |
Den visuella världens komplexitet skapar stora utmaningar för en omfattande visuell förståelse. Trots de senaste framgångarna med visuellt erkännande skulle dagens visionssystem fortfarande ha svårt att hantera visuella frågor som kräver ett djupare resonemang. Vi föreslår en kunskapsbas (KB) ram för att hantera ett sortiment av visuella frågor, utan behov av att utbilda nya klassificeringar för nya uppgifter. Att bygga en sådan storskalig multimodal KB innebär en stor utmaning för skalbarheten. Vi gjorde en storskalig MRF till en KB-representation som införlivade visuella, textrelaterade och strukturerade data samt deras olika relationer. Vi introducerar ett skalbart kunskapsbassystem som kan bygga en KB med en halv miljard variabler och miljontals parametrar på några timmar. Vårt system uppnår konkurrenskraftiga resultat jämfört med specialbyggda modeller på standardigenkännings- och hämtningsuppgifter, samtidigt som vi har större flexibilitet när det gäller att svara på rikare visuella frågor.
|
Zhu m.fl. REF byggde till och med en storskalig multimodal kunskapsbas för VQA-ändamål.
| 1,197,661 |
Building a Large-scale Multimodal Knowledge Base System for Answering Visual Queries
|
{'venue': None, 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
| 14,557 |
Vi utgår från data från en blandning av d-dimensionella linjära subrymder med sfäriskt symmetriska avvikelser. Vi studerar återhämtningen av den globala l 0 subrymden (dvs. med det största antalet poäng) genom att minimera de lp-genomsnittliga avstånden av datapunkter från d-dimensionella subrymder av R D, där 0 < p på R. Till skillnad från andra lp minimering problem, är denna minimering icke-konvex för alla p > 0 och därmed kräver olika metoder för sin analys. Vi visar att om 0 < p ≤ 1, då den globala l 0 subrymden kan återvinnas genom lp minimering med överväldigande sannolikhet (som beror på generationsdistributionen och dess parametrar). Dessutom, när du lägger till homoscedastic buller runt de underliggande subrymder, då med överväldigande sannolikhet den generaliserade l 0 subspace (med största antal punkter "runt det") kan nästan återvinnas genom lp minimization med ett fel proportionellt mot bullernivån. Å andra sidan, om p > 1 och det finns mer än en underliggande subrymd, då med överväldigande sannolikhet den globala l 0 subrymden inte kan återvinnas och den generaliserade en kan inte ens nästan återvinnas.
|
G. Lerman och T. Zhang REF studerade problemet genom att minimera det p-genomsnittliga avståndet mellan datapunkter från d-dimensionella subrymder i utrymme med hög omgivningsdimension.
| 17,177,846 |
lp-Recovery of the Most Significant Subspace among Multiple Subspaces with Outliers
|
{'venue': 'Constructive Approximation, December 2014, Volume 40, Issue 3, pp 329-385', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,558 |
Abstrakt. Två mobila agenter med distinkta identifierare och lokaliserade i noder av en okänd anonym ansluten graf, måste mötas på någon nod av grafen. Vi söker snabba deterministiska algoritmer för detta mötesproblem, under två scenarier: samtidig start, när båda agenterna börjar utföra algoritmen samtidigt, och godtycklig start, när starttiderna för agenterna godtyckligt bestäms av en motståndare. Mätningen av prestanda för en mötesplatsalgoritm är dess kostnad: för en given initial placering av agenter i en graf, är detta antalet steg sedan starten av den senare agenten tills mötesplatsen uppnås. Vi visar först att mötesplatsen kan slutföras till priset O(n + log l) på alla n-node träd, där l är den mindre av de två identifierarna, även med godtycklig start. Denna komplexitet i kostnaderna kan inte förbättras för vissa träd, inte ens vid samtidig start. Effektivt möte i träd bygger på snabb nätverksprospektering och kan inte användas när grafen innehåller cykler. Vi studerar vidare det enklaste nätverket, d.v.s. ringen. Vi bevisar att, med samtidig start, optimal kostnad för mötesplats på varje ring är (D log l), där D är det ursprungliga avståndet mellan agenter. Vi fastställer också gränser för möteskostnader i ringar med godtycklig start. För godtyckliga uppkopplade grafer är vårt huvudbidrag en deterministisk mötesplatssalgoritm med kostnadspolynom i n, τ och log l, där τ är skillnaden mellan starttiderna för agenterna. Vi visar också en lägre gräns (n 2 ) på kostnaden för mötesplats i vissa familj av grafer. Om samtidig start antas, vi konstruera en generisk mötesplats algoritm, arbetar för alla anslutna grafer, vilket är optimalt för klassen av grafer av begränsad grad, om det initiala avståndet mellan agenter begränsas.
|
Den första deterministiska synkrona mötesplatsalgoritmen för agenter med distinkta etiketter presenterades av Dessmark et al. REF och tid komplexiteten hos algoritmen var O(n 5 ε τ log l log n + n 10 log 2 n log l) för en graf av n noder, där τ är fördröjningen i starttiden för agenterna.
| 27,400,822 |
Deterministic Rendezvous in Graphs
|
{'venue': 'Algorithmica', 'journal': 'Algorithmica', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
| 14,559 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.