Datasets:
Tasks:
Text Retrieval
Modalities:
Text
Formats:
parquet
Sub-tasks:
multiple-choice-qa
Languages:
Persian
Size:
10K - 100K
ArXiv:
License:
Dataset Viewer
_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
---|---|---|
5982 | ما در تلاش هستیم تا آزمایش شبیهسازی را شامل یک روند تصادفی رایج انجام دهیم، که با پیادهروی تصادفی (یا فرآیند $I(1)$) $Y_t = Y_{t-1} + \varepsilon_t$، که در آن نوآوریها $\varepsilon_t$ توصیف میشود، انجام دهیم. ~ $N(0,1)$. با این حال، چه زمانی میتوانیم مطمئن باشیم که نوآوریهای گذشته کم و بیش به طور منطقی در روند تصادفی گنجانده شدهاند؟ آیا پروکسی خوبی برای دوره سوختگی تصادفی وجود دارد؟ من به دنبال پیشنهاد پیشفرض Bur-in R برای بخش $AR(p)$: `ceiling(6/log(minroots))`، به این معنی که در صورت ریشه واحد، بینهایت را در اینجا دریافت میکنیم و تقریباً سعی میکنیم نزدیک به unity root 1.0001 (در واقع مانند گرفتن 60000 یکباره است). بنابراین آیا پیشنهاد معقولی یا قانون سرانگشتی شما در عمل استفاده می کنید؟ | دوره سوختگی برای پیاده روی تصادفی |
88391 | برای رویکرد BPE، برای p($\theta$)~U(0,1) نشان میدهد که p(x|D)= $1/n+2[(x+ \sum_{k=1}^n(x_k)!) $ $ (n+1-x-$($\sum_{k=1}^n(x_k)$!]$/$[$(\sum_{k=1}^n(x_k))$! $(n-\sum_{k=1}^n(x_k))$!] من با استفاده از معادله زیر سعی کردم p(x|D)= $\int p(x|\mu)p(\mu|D )d\mu$ من 2 عبارت را جایگزین کردم اما نتوانستم به راه حل مورد نیاز برسم | مشکل تکلیف تخمین پارامتر بیزی |
110557 | من سعی می کنم یک تحلیل بیزی انجام دهم که در آن تابع درستنمایی من یک تابع پروبیت بر روی دو پارامتر است. از منابع مختلف متوجه شدم که توزیع نرمال مزدوج قبل از احتمال probit است، اما من قادر به محاسبه پسین توابع نیستم. در اینجا جزئیات مشکل احتمال وجود دارد: $\Phi(\theta-\beta)$ قبلی برای $\beta$: $\phi(\beta-\mu_1)$ قبلی برای $\theta$: $\phi(\ تتا-\mu_2)$ پشتی مشترک: $C\Phi(\theta-\beta)\phi(\beta-\mu_1)\phi(\theta-\mu_2)$ اکنون من میخواهم توزیعهای حاشیهای را از این خلفی مشترک دریافت کنم | مزدوج قبل برای تابع احتمال پروبیت |
82997 | من یک سوال در مورد مدل های اثر مختلط دارم. آیا ممکن است وقتی از یک مدل با متغیرهای وابسته مختلف استفاده می کنم درجات آزادی متفاوت باشد؟ یا این نشان می دهد که مشکلی رخ داده است؟ من داده های خود را با استفاده از روش MIXED در SPSS تجزیه و تحلیل کردم. دو عامل تصادفی (شرکت کنندگان و محرک ها) و یک عامل ثابت (پیوسته) (PD) در طراحی من وجود دارد. تعداد درجه آزادی برای اولین متغیر وابسته perf من 1201436 است. هنگامی که من از همان مدل استفاده می کنم و فقط یک متغیر وابسته متفاوت (wr) را انتخاب می کنم، تعداد درجه آزادی 1194166 است. تعداد مجموعه داده ها و ابعاد مدل برای هر دو متغیر وابسته یکسان است. معیارهای اطلاعات متفاوت است (به عنوان مثال، AIC برای perf = 3975 و AIC برای wr = 9942). آزمون اثرات ثابت برای هر دو متغیر وابسته معنادار است. آیا منطقی است که درجات آزادی متفاوت باشد؟ | درجات مختلف آزادی هنگام استفاده از یک مدل جلوه ترکیبی یکسان (SPSS) |
110556 | من یک مبتدی در آمار و R هستم، ببخشید اگر این سوال ممکن است بی اهمیت به نظر برسد. من داده هایی را برای اندازه گیری چندین پارامتر مختلف در 40 موضوع در دو نقطه زمانی (t1 و t2) جمع آوری کرده ام. 3 پارامتر اصلی وجود دارد که من به آنها علاقه دارم، اجازه دهید آنها را ParA، ParB، ParC بنامیم. پارآ یک نمره ناتوانی است. این در یک مقیاس دلخواه است (بنابراین، اگر درک من درست باشد، یک مقیاس ترتیبی است) و مقادیر از 0.0 تا 10.0 متغیر است. توجه داشته باشید که افزایش در این مقیاس 0.5 واحد است، بنابراین مقادیری مانند، به عنوان مثال. 1.5 امکان پذیر است. من دو معیار دارم، در t1 و t2، بنابراین می توانم حداقل سه متغیر از ParaA را توصیف کنم: ParaA در t1، ParA در t2، و اینکه آیا یک موضوع پیشرفت کرده است یا نه (0 یا 1). بهعنوان یک مقیاس نسبت، فکر میکنم محاسبه تفاوت چندان منطقی نیست (مثلاً ParaA در t2 - ParaA در t1)، اما مایلم پیشنهاداتی را در این مورد بپذیرم. ParB و ParC اندازه گیری دو ساختار تشریحی هستند. آنها پیوسته هستند. Par B مساحتی است که بر حسب mm2 اندازه گیری می شود، ParC حجمی است که بر حسب mm3 اندازه گیری می شود. من معتقدم که باید آنها را معیار مقیاس نسبت در نظر گرفت. برای هر یک می توانم حداقل 4 متغیر را توصیف کنم: اندازه گیری در t1 و t2 (به عنوان مثال ParB1، ParB2)، تفاوت مطلق بین دو اندازه گیری (ParB2-ParB1)، تفاوت درصدی بین این دو. کاری که میخواهم انجام دهم: میخواهم نوعی رگرسیون انجام دهم، تا ببینم آیا ParaA در t2 به بهترین وجه توسط B یا C پیشبینی میشود (تفاوت درصدی، یا شاید ParB یا ParC در t1، من هنوز تصمیم نگرفتهام که کدام یک منطقیتر است. ) اما من نمی دانم چگونه این کار را انجام دهم. من سعی کردم تحقیقاتی انجام دهم و به این نتیجه رسیدم که می خواهم یک رگرسیون لجستیک ترتیبی انجام دهم، اما اکنون مطمئن نیستم که چگونه نتایج را تفسیر کنم و انتخاب خود را زیر سوال می برم. در صورتی که کسی بخواهد وضعیت من را بازتولید کند، در اینجا چند داده وجود دارد: require(MASS) example.df <- data.frame(ParA1=c(1.5,0.0,0.0,1.0,1.5,1.0,1.0,0.0,0.0,0.0,3.0 ، ParaA2 = c(2.5،1.5،1.0،2.0،2.0،1.5،2.0،0.0،0.0،0.0،6.5)، پیشرفت=c(1,1,1,1,1,1,1,0,0,0,1 ) ParB1=c(222.76,743.07,559.65,642.93,584.36,565.53,590.88,465.31,570.22,543.91,574.80) ParB2=c(214.5,674.71,538.75,560.72,581.9,566.40,499.72, 434.72,528.33,517.61,516.1) ParBAbsolDiff=c(-8.27،-68.36،-20.90،-82.21،-2.46،0.87،-91.16،-30.59،-41.88،-26.31،-58.71)، ParBPercentDiff=c(-3.71،-9.20،-3.73،-12.79،-0.42،0.15،-15.43،-6.57،-7.34،-4.84،-10.21)، ParC1=c(1585354,1600993,1818728,1595059,1445126,1599984,1454398,1540987,1567783,1559505,1523271) ParC2=c(1578834,1512068,1800791,1514774,1472185,1548337,1440284,1505046,1586734,1622379,1496734) ParCAbsolutDiff=c(-6520.26،-88925.62،-17937.04،-80285.40،27059.77،-51646.81،-14114.52،-35940.91،189251.04،-35940.91،189251.04. ParCPercentDiff=c(-0.41،-5.55،-0.99،-5.03،1.87،-3.23،-0.97،-2.33،1.21،4.03،-1.74)) > myregression <- polr(ParA2 ~ ParBPercentffDixae+ParBPercentff .df، Hess=TRUE) خطا در polr(ParA2 ~ ParBPercentDiff + ParCPercentDiff، داده = example.df، : پاسخ باید یک فاکتور باشد > example.df$ParA2 <- factor(example.df$ParA2) > myregression <- polr(ParA2 ~ ParBPercentDiff + ParCPercentDiff، data=example.df، Hess=TRUE) > summary(myregression) فراخوانی: polr(فرمول = ParA2 ~ ParBPercentDiff + ParCPercentDiff، داده = example.df، Hess = TRUE) ضرایب: Value Std. خطای t مقدار ParBPercentDiff -0.04825 0.1114 -0.4330 ParCPercentDiff -0.13650 0.2079 -0.6566 Intercepts: Value Std. خطای t مقدار 0|1 -0.4982 0.9546 -0.5219 1|1.5 -0.0267 0.9367 -0.0285 1.5|2 0.7736 0.9874 0.7835 2|2.5 2.106132.11 2.5|6.5 2.8957 1.3531 2.1400 انحراف باقیمانده: 35.89846 AIC: 49.89846 > ci <- confint(myregression) در انتظار انجام نمایه سازی... > exp(cbind(OR= coef.5 %. ParBPercentDiff 0.9528960 0.7596362 1.200121 ParCPercentDiff 0.8724038 0.5670611 1.321134 من در اینترنت جستجو کردم، اما متوجه نشدم چه چیزی پیدا کردم. چندین سوال در stackoverflow وجود دارد، اما پاسخ ها خیلی پیشرفته بودند. من دانشجوی پزشکی هستم، بنابراین برخی از مفاهیم اولیه در آمار را دارم، اما این چیزهای پیشرفته ای برای سطح درک فعلی من است. من سعی می کنم در اوقات فراغت خود آمار مطالعه کنم، اما در حال حاضر تحت فشار هستم و باید بفهمم این به چه معناست. به نظر من اگر به زبان ساده توضیح داده شود بهتر است. برگردم به سوالم... من با نتایجی که به دست آوردم گیج شده ام، احتمالاً به این دلیل که در مورد برخی از مفاهیم اساسی گیج شده ام. آنچه من از بررسی خلاصه (myregression) نتیجه میگیرم این است که ParBPercentDiff پیشبینیکننده بدتری نسبت به ParCPercentDiff است (افزایش معینی در ParBPercentDiff باعث کاهش 0.04- در مقدار انتظاری ParaA2 در مقیاس شانس ورود به سیستم میشود - بنابراین کاهش ParBPercentDiff باید نشان دهد. افزایش 0.04+ این مقادیر برای ParCPercentDiff بالاتر است. با این حال به نظر می رسد OR داستان متفاوتی را بیان می کند. به عنوان مثال، احتمال افزایش ParaA2 با i بیشتر است | آیا این موردی برای رگرسیون لجستیک ترتیبی است؟ مشکلات در تفسیر خروجی |
89378 | فرمول ماتریس وزن دهی بهینه هنگامی که رگرسیون را با متغیرهای ابزاری بیشتری نسبت به پیش بینی کننده های درون زا انجام می دهید به شرح زیر است: $W_{opt} = (\frac{1}{N}Z'Z)^{-1} $ این به ما می گوید که ما فقط باید به ماتریس کوواریانس واریانس ابزارها نگاه کنیم، اما آیا منطقی نیست که وزن بیشتری به قوی ترین ابزارها (یا به عبارت دیگر، آنهایی که همبستگی بهتری دارند). با پیش بینی های درون زا)؟ پیشاپیش متشکرم | برآوردگر متغیرهای ابزاری ماتریس وزن بهینه |
11543 | من چند کلاس احتمال را گذراندهام و اکنون میدانم که چگونه برخی از معیارهای آماری مانند میانگین و فواصل اطمینان را محاسبه کنم. چیزی که من نمی دانم این است که چه چیزی، چه زمانی و چرا از این اقدامات برای موقعیت های خاص استفاده می شود. من امیدوارم که مجموعه خوبی از هر یک از این اقدامات را جمع آوری کنم، برای چه مواردی استفاده می شود و در چه موقعیت هایی استفاده می شود. به طور خاص من به دنبال این موارد هستم (اما نه محدود به): * میانگین (متوسط) * انحراف استاندارد * واریانس * فواصل اطمینان * میانه | چگونه می توانم بگویم که چه زمانی و چرا از معیارهای آماری خاص استفاده کنم؟ |
82446 | من روی یکی از مجموعه دادههایم با ANNها آزمایش میکردم، به نظر میرسد آنها پتانسیل این را دارند که در توضیح تنوع Y من کاملاً مؤثر باشند. چیزی که من پیدا کردم این است که آنها از برخی مدلسازیهای قبلی با روشهای دیگر برای کاهش کمیت متغیر x سود میبرند (من متوجه شدم نمیتوانم از PCA استفاده کنم زیرا نیاز دارم متغیرهای X خود را حفظ کنند و PCA به دلیل فاکتورگیری در این مورد خاص از انجام این کار من جلوگیری میکند. موردی که شبیه چیزی در دنیای واقعی نیست). آنچه به نظر می رسد اگر از همه متغیرهای خود استفاده کنم این است که برخی از متغیرها به عنوان تأثیرات قدرتمند متغیر Y من ظاهر می شوند، علیرغم اینکه در واقعیت مطلقاً چنین نیست. چیزی که در این مورد من را با مشکل مواجه می کند، اغلب آموزش و اعتبار سنجی نشان می دهد که با وجود این، مدل اوکی است، این ممکن است به دلیل نقاط داده کافی نباشد. متغیرهایی که این اتفاق می افتد معمولاً به خوبی توزیع نمی شوند و معمولاً به این دلیل آنها را حذف می کنم. من عمدتاً می پرسم زیرا می خواستم بدانم چرا این اتفاق می افتد؟ و همچنین آیا مدل قبلی با روش های دیگر برای رفع این مشکل خوب است؟ همچنین، اگر از دو نوع مدلسازی مرتبط با یکدیگر استفاده کنم، چگونه باید با اعتبارسنجی برخورد کنم؟ آیا مجموعه اعتبارسنجی باید هر بار دوباره تولید شود؟ من قبلاً از شبکههای عصبی مصنوعی استفاده نکردهام (غیر از فتنه) و دقیقاً نمیدانم که دقیقاً چگونه در اصلاح مجدد وزنها از طریق انتشار کار میکنند. | شبکه عصبی: توزیع متغیر، اعتبارسنجی و تعداد متغیرها - نتایج غیرمنتظره |
113011 | من یک مبتدی در BUGS هستم. من سعی می کنم مدل Dawid Skene را در BUGS کدنویسی کنم. مدل به صورت زیر است:  در حال حاضر، من در حال تطبیق کد از Stan، اینجا هستم. این کد این است: model { for (i در 1:I) { z[i] ~ dcat(pi[]) } برای (n در 1:M) { y[n] ~ dcat(theta[jj[n] ,z[ii[n]]]) } } داده ها لیست هستند(I=4، M=12، ii=c(1,1,1,2,2,2,3,3,3,4,4,4), jj=c(1,2,3,1,2,3,1,2,3 ,1,2,3),y=c(1,0,1,1,1,0,1,1,1,0,0,1)) من نمی توانم کد را کامپایل کنم زیرا مدام این خطا را دریافت می کنم: متغیر pi در مدل یا داده اعلام نشده است. آیا ایده ای دارید که چگونه می توانم مدل Dawid Skene را در BUGS مدل کنم؟ ویرایش: زمینه این مدل به شرح زیر است: حاشیه نویسان J وجود دارند که باید N مورد را در دسته K برچسب گذاری کنند. حاشیه نویسی M وجود دارد ($M=N \times J$). برچسب حاشیهنویس $i$ برای مورد $j$ به صورت $r_{i,j}$ نشان داده میشود. من باید برچسب واقعی واقعی هر مورد $z_i$ و صلاحیت هر حاشیه نویس $\Theta$ را پیدا کنم. ویرایش 2: $\Theta$ یک ماتریس $J \times K \times K$ است که هر عنصر در ماتریس به $[0,1]$ است. علاوه بر این، اگر $i,j$ ثابت باشد، $\sum_{k=1:K}\Theta[i,j,k] = 1$. $\rho$ آرایه ای از عناصر $K$ است. هر عنصر در آرایه بر حسب $[0,1]$ است و مجموع عناصر 1 است. ویرایش 3: $r[i,j]$ یک توزیع طبقهبندی است که $\Theta[i,j,:]$ را دریافت میکند. به عنوان پارامتر آن و یک عدد صحیح در $[1,K]$ برمی گرداند. $z[i]$ همچنین یک توزیع طبقهبندی است که $\rho$ را به عنوان پارامتر میگیرد و یک عدد صحیح را در $[1,K]$ برمیگرداند. سوال این است که من نمی دانم چگونه $\Theta$ را در BUGS مدل کنم. از آنجایی که آن نیز پارامتری است که می خواهم استنباط کنم، فرض می کنم باید $\Theta$ را به عنوان یک ماتریس در مدل مدل کنم (که نمی دانم چگونه). | مدل Dawid Skene برای BUGS |
80399 | من با دو پیاده سازی متفاوت از یک مشکل طبقه بندی که نتایج متفاوتی ارائه می دهد مشکل دارم. من و کالجم که اجرای دیگر را انجام دادیم، مشکل را به روش محاسبه مساحت زیر منحنی مشخصه عملکرد گیرنده (AUC) محدود کردیم. یک راه حل از فرمولی که حداقل در یک مکان ظاهر می شود مشتق می شود: [1] $$AUC_1 = \frac{1}{mn}\sum_{i=1}^{m}\sum_{j=1}^{n }\mathbf{1}_{p_i<p_j}$$ من پیادهسازی را به «R» منتقل کردم و آن را با نتیجه $AUC_2$ از بسته R «pROC»: auc1 مقایسه کردم <- تابع(p) { مقادیر <- p[,1] مثبت <- مقادیر[ p[,2]==1 ] منفی <- مقادیر[ p[,2]==0 ] تعداد <- 0 برای ( p در مثبت ) { برای ( n در منفی ) { if ( p>n ) { count <- count + 1 } } } return(count/(length(positive) * length(ngatives))) } auc2 <- function(p) { library(pROC) c <- roc(p[,2], p[,1], print.auc=TRUE, ci=F, of=auc ) بازگشت (auc(c)) } پیش بینی شده <- c(0, 1, 0, 1, 1, 1, 1, 1, 0, 1, 0, 0, 0، 0، 1، 0، 0، 0، 1، 1) واقعی <- c(0، 1، 0، 1، 1، 1، 1، 1، 0، 1، 0، 0، 0، 1، 1 , 0, 0, 0, 1, 1) p <- cbind(پیش بینی شده، واقعی) auc1(p) auc2(p) آیا کسی می تواند مقداری را از بین ببرد روشن است که چرا دریافت می کنم: $$AUC_1 = 0.9090909 \mbox{ و } AUC_2 = 0.9545\mbox{?}$$ | آیا کسی می تواند مرا در مورد محاسبه AUC مرتب کند؟ |
114775 | من یک سوال اساسی در مورد PCA دارم. به من وظیفه کاهش متغیرهای مستقل در مجموعه داده ای از حدود 250000 ورودی و 400 متغیر مستقل داده شده است زیرا برخی از آنها همبستگی بالایی دارند. بنابراین من می خواهم فقط مفیدترین آنها را حفظ کنم. من میخواهم آنالیز PCA را روی آن انجام دهم و آن را خواندهام اما هنوز نمیدانم که چگونه منجر به کاهش ابعاد میشود. من تجزیه و تحلیل را انجام می دهم و اجزای اصلی را بر اساس چندین معیار انتخاب می کنم. حالا چی؟ چگونه از بین آن 400 متغیر مرتبط ترین را انتخاب کنم و بقیه را حذف کنم؟ متشکرم. | کاهش ابعاد با استفاده از تجزیه و تحلیل مولفه اصلی |
82447 | من دو نوع نمونه دارم: * برخی شبیه مخلوط گاوسی دوقله ای (نوع A)، * و برخی شبیه به گاوسی (نوع B) هستند. چگونه می توانم آنها را به صورت برنامه ای طبقه بندی/برچسب گذاری کنم؟ زبان می تواند R، Python، Matlab یا هر چیز مناسب دیگری باشد.  داده های ارائه شده در نمودارها مقادیر قرمز از تصاویر jpeg هستند. در کد R: # من یک تصویر را میخوانم I = readJPEG (پرونده، بومی = FALSE) # بنابراین من اکنون یک ماتریس 3 بعدی (ردیفها، ستونها، 3 برای قرمز/سبز/آبی) هستم. یک خط عمودی از تصویر، و فقط قسمت قرمز image_extract <- I[150:260, 194, 1] # پس از خواندن چندین تصویر، 3 تصویر را رسم می کنم image_extract برای هر نوع (A,B) plot(image_extract_1) lines(image_extract_2) lines(image_extract_3) برای نوع A I رسم شده، 3 عصاره تصویر در همان نمودار. برای نوع B هم همینطور. امیدوارم روشن شود. | چگونه گاوسیان را از مخلوط دووجهی 2 گاوسی طبقه بندی کنیم؟ |
103543 | من فهرستی از داده های سری زمانی ماهانه با دوره های زمانی مختلف و ترتیب ادغام متفاوت دارم. من می خواهم همه آنها را به یک دوره ثابت و یکسان تبدیل کنم. متوجه شدم که ترتیب ادغام یک سری زمانی می تواند با تعداد نقاط داده متفاوت متفاوت باشد. برای مثال: * TS_1$ I(1) با 67 obs است. * TS_2$ I(1) با 108 obs.، I(2) با 67 obs.، I(1) با 66 obs. و I(2) با 65 obs. * TS_3$ I(1) با 108 obs.، I(0) با 67 obs. و I(1) با 66 obs. و غیره است. فرض کنید داده های من در زمان های مختلف شروع می شوند، اما در همان تاریخ به پایان می رسند. . بهترین روش برای تبدیل آنها به ثابت چیست؟ متشکرم | تبدیل سری های زمانی افق زمانی مختلف به ثابت |
82991 | من یک مدل سرسیکی برآمدگی دیسک را روی پروفایل های نور کهکشان نصب می کنم و باید روشی قوی برای یافتن خطاهای پارامترها پیدا کنم. من به اعتبارسنجی متقابل اجرا شده در این مقاله در اینجا (صفحه 9، بخش 4.2) نگاه می کنم. می گوید باید احتمال حذف نقطه را محاسبه کنم. چگونه این را محاسبه کنم؟ من یک آمارگیر نیستم و تحقیقات آنلاین من فقط من را گیج کرده است! من قبلاً هرگز به احتمالات نگاه نکرده بودم! | احتمال اعتبار متقابل |
82448 | من سریهای زمانی روزانه همه سهام/اعضای S&P500 را در یک افق 5 ساله دارم و میخواهم طبقهبندی کنم که آیا سهام یک بازبینی سود را از طریق یک نتیجه باینری گزارش میکند (0=بدون تجدیدنظر در سود، 1 = بازنگری سود). من از یک رگرسیون لجستیک استفاده کرده ام، اما می خواهم آن را با روش یادگیری ماشین مقایسه کنم. آیا بسته randomForest در R میتواند چندین سری زمانی را برای یک مشکل طبقهبندی مدیریت کند؟ هر گونه راهنمایی در مورد شروع کار من بسیار قدردانی خواهد شد. با تشکر | طبقه بندی چند سری زمانی با استفاده از randomForest R |
11541 | فرض کنید جمعیت اندازه گیری X وجود دارد، و 50٪ از آن X = 1، و بقیه 50٪ = 0. بنابراین، با توجه به یک نمونه تصادفی با اندازه n، میانگین جمعیت = 0.5 است، چگونه SE آن نمونه را تعیین می کنید. ? یا به زبان ساده، اگر یک سکه را n بار بچرخانید، چقدر می توانید انتظار داشته باشید که از 50% سر و 50% دم منحرف شوید؟ | چگونه می توان SE را برای یک اندازه گیری دوتایی، با توجه به حجم نمونه n و میانگین جمعیت شناخته شده محاسبه کرد؟ |
89379 |  تصویر بالا مجموعه داده های فرضی مورد علاقه را نشان می دهد. برای مجموعه ای از نقاط در فضای N بعدی (هر ویژگی مجموعه داده مربوط به یک بعد است)، من می خواهم پارتیشن هایی را با تراکم نسبتاً بالاتر ضربه (نقاط قرمز) در مقابل اشتباهات (نقاط سیاه) شناسایی کنم. هدف من این نیست که همه نقاط را طبقه بندی کنم. به عنوان مثال، در مجموعه داده های ارائه شده در بالا، پارتیشنی وجود دارد که با y > 0.7 و y < 0.75، z > 0.7 تعریف شده است که دارای تراکم نسبتاً بالایی از بازدیدها است. من به دنبال الگوریتمی هستم که بتواند چنین پارتیشنی را در فضای N بعدی شناسایی کند (N ممکن است بین 5-20 باشد). آیا کسی راه خوبی برای انجام این کار می شناسد؟ اگر جای بهتری برای پرسیدن این سوال وجود دارد، لطفاً به من بگویید. | به الگوریتم پارتیشن زیرفضا نیاز دارید، نه لزوماً یک طبقهبندی کننده کامل |
27300 | من در انتخاب ویژگی جدید هستم و میپرسیدم چگونه از PCA برای انجام انتخاب ویژگی استفاده میکنید. آیا PCA امتیاز نسبی را برای هر متغیر ورودی محاسبه می کند که می توانید از آن برای فیلتر کردن متغیرهای ورودی غیر اطلاعاتی استفاده کنید؟ اساساً، من میخواهم بتوانم ویژگیهای اصلی در دادهها را بر اساس واریانس یا مقدار اطلاعات موجود مرتب کنم. | استفاده از تجزیه و تحلیل مؤلفه اصلی (PCA) برای انتخاب ویژگی |
19398 | من یک بار عبارت زیر را از وب شنیدم: توابع از دست دادن محدب و طبقه بندی غیرخطی دو مفهوم مهم در یادگیری نظارت شده هستند. من نمی دانم چرا می توان این جمله را بیان کرد؟ یا نقش توابع از دست دادن محدب و طبقه بندی های غیرخطی در توسعه الگوریتم های یادگیری نظارت شده چیست؟ | بهینه سازی از دست دادن محدب و یادگیری تحت نظارت |
19390 | من دادههایی از یک آزمایش شامل 4 گروه از افراد، 2 مداخله احتمالی اول و 3 مداخله ممکن در نقطه دوم، اندازهگیری دادههای مکرر از هر آزمودنی در چندین نقطه زمانی با کاهش تعداد اندازهگیریها در هر نقطه زمانی پیشرونده پس از مداخله دوم دارم (این برنامه ریزی شده بود). مشکل من این است که مطمئن نیستم چگونه داده های نامتعادل را تجزیه و تحلیل کنم. به طور خاص، آزمایش من شامل گروهها و مداخلات زیر است: 1. گروه کنترل (بدون درمان اول، بدون درمان دوم) 2. گروه آزمایشی 1 (درمان اول، بدون درمان دوم) 3. گروه تجربی 2 (درمان اول، نوع A 2). درمان) 4. گروه تجربی 3 (درمان اول، درمان نوع B دوم) درمان اول برای همه افراد دریافت کننده یکسان است. همه گروه ها با تعداد مساوی از افراد (24 نفر) در هر گروه (برای مجموع 96 نفر در مطالعه) شروع به کار کردند. از آزمودنیها در مقاطع زمانی مختلف زیر برای اندازهگیری یک متغیر وابسته نمونهگیری شد: * `t(0)` \- AKA پایه قبل از زمان اولین درمان (یا زمان معادل) برای همه افراد (در کل 96 نفر، بنابراین 96 امتیاز کل داده) * t(1) \- x تعداد هفته بعد از اولین درمان و قبل از درمان دوم (یا زمان معادل) برای همه افراد (96 کل آزمودنی، بنابراین 96 کل امتیاز داده) * t(2) \- x تعداد هفته پس از دومین درمان (یا زمان معادل) برای همه افراد (96 کل آزمودنی ها، بنابراین 96 امتیاز داده کل ). 1/4 از افراد از هر گروه (6 نفر از هر گروه، 24 نفر در کل) محل درمان برای تجزیه و تحلیل برداشته می شود. * t(3) \- y تعداد هفته پس از دومین درمان (یا زمان معادل) برای 3/4 باقیمانده از افراد (72 نفر در کل، بنابراین 72 کل امتیاز داده). 1/4 دیگر از افراد از هر گروه (6 نفر از هر گروه، 24 نفر در کل) محل درمان برای تجزیه و تحلیل برداشته می شود. * `t(4)` \- z تعداد هفتهها پس از دومین درمان (یا زمان معادل) برای 2/4 باقیمانده از افراد (48 نفر در کل، بنابراین 48 کل امتیاز داده). 1/4 اضافی از تعداد اولیه افراد از هر گروه (6 نفر از هر گروه، 24 نفر در کل). * `t(5)` \- تعداد zz هفتهها پس از دومین درمان (یا زمان معادل) برای 1/4 باقیمانده از افراد (24 کل آزمودنی، بنابراین 24 کل امتیاز داده). تمام افراد باقیمانده از هر گروه، محل درمان را برای تجزیه و تحلیل حذف می کنند. (امیدوارم همه اینها منطقی باشد.) من سعی می کنم تجزیه و تحلیل کنم که آیا اولین درمان تأثیری را که ما انتظار داریم بر روی افراد دارد یا خیر و آیا درمان دوم اثرات بیشتری دارد یا خیر. متأسفانه، ما _نیاز_ داریم که محل درمان را بعد از هر نقطه زمانی «t(2)`-`t(5)» حذف کنیم تا بتوانیم داده های میکروسکوپی را به دست آوریم و ببینیم چه چیزی در حال تغییر است. ناحیه درمان بسیار کوچک است، بنابراین مصرف بخشی از آن واقعاً یک گزینه نیست. از آنجایی که من 1 متغیر وابسته برای اندازه گیری، 3 متغیر درمانی دارم و هیچ متغیر تصادفی در مطالعه خود ندارم، فرض می کنم باید از ANOVA با اندازه گیری های مکرر استفاده کنم. با این حال، با توجه به اینکه من به تدریج نقاط داده کمتری (اما در بین گروه ها برابر) برای 3 نقطه زمانی آخر دارم (AKA که با 96 @ `t(2)` \--> 72 @ `t(3)` \--> 48 شروع می شود. @ `t(4)` \--> 24 @ `t(5)`)، من مطمئن نیستم که چگونه باید آنالیز را شروع کنم یا اینکه چه برنامه ای برای من کار می کند. من GraphPad Prism دارم، اما فقط به من اجازه می دهد تا دو طرفه ANOVA را بالا ببرم، و مطمئن نیستم که آیا باید از ANOVA 3 طرفه استفاده کنم یا نه، یا حتی باید از روش دیگری استفاده کنم. پیشنهاداتی در مورد نحوه تجزیه و تحلیل داده ها و اینکه در صورت وجود چه برنامه ای بسیار مفید خواهد بود. از هرگونه دیدگاه یا پیشنهاد دیگری نیز استقبال می شود. | چگونه یک طرح ANOVA نامتعادل درون موضوعی را تجزیه و تحلیل کنیم؟ |
106089 | من نمونه ای از افراد را دارم که برای آنها زمان نشان دادن یک رفتار خاص را اندازه گیری کرده ام. این رفتار تکراری است (کشنده نیست). من این رویدادها را با متغیرهای وابسته به زمان، با استفاده از نرخهای خطر ثابت تکهای (بر اساس توزیع نمایی) مدلسازی کردهام. این به من تخمین پارامتر برای اثر متغیرهای کمکی مختلف داد. این پارامترها در طول زمان ثابت هستند. اکنون، با دانستن اینکه یک فرد دارای مقادیری برای متغیرهای کمکی X1(t) و X2(t) در زمان t است، می توانم نرخ خطر برازش آن فرد را در t محاسبه کنم (به عنوان exp(labda0 + labda1*X1(t) + labda2*X2( t)). مقدار برای این متغیرهای کمکی بنابراین، با توجه به مقادیر X1(t) و X2(t) و تخمین پارامتر برای X1 و X2، میخواهم تخمین بزنم که چقدر طول میکشد (در چند دقیقه) تا فرد درگیر این رفتار شود. بعد چگونه می توانم آن مقدار زمان را تخمین بزنم. | تخمین زمان تا رویداد مشروط برای مدل تاریخچه رویداد تکراری |
110558 | من یک مجموعه داده نظرسنجی دارم که کیفیت کلی تجربه را به عنوان متغیر وابسته دارد. من همچنین 4 زیر مجموعه مربوط به غذا، منو، تسهیلات و تیم دارم. هر زیر مجموعه سوالاتی دارد (به ترتیب 5،5،3،3). توجه داشته باشید که هیچ یک از زیر مجموعه ها یک سوال کلی مانند کیفیت کلی غذا چگونه است یا کیفیت کلی منو ندارند. پس از اجرای یک رگرسیون لجستیک ترتیبی، می توانم به اهمیت فردی برای هر یک از 16 متغیر مستقل برسم. با این حال، من میخواهم اهمیت فردی را برای «غذا، منو، امکانات و تیم» محاسبه کنم. بچه ها می تونید اینجا به من کمک کنید؟ با تشکر | یافتن اهمیت مقوله ای در رگرسیون |
82449 | من سی متغیر تصادفی گسسته برای یک برنامه مدیریت ریسک دارم. هر یک از متغیرهای تصادفی ممکن است مقدار $0$ (با احتمال $p_1$) یا $X_i>0$ (با احتمال $p_2$) داشته باشد. هر سی $X_i$ ممکن است متفاوت باشد. من به جمع $S=\sum_{i=1}^{30} X_i$ از تمام سی متغیر تصادفی علاقه دارم. آیا در رابطه با افکار زیر درست می گویم: 1) یک راه حل تحلیلی دقیق برای توزیع احتمال S مستلزم محاسبه $2^{30}$ مختلف ارزش-احتمال-جفت است 2) مقدار مورد انتظار S را می توان به راحتی به عنوان مقدار محاسبه کرد مجموع 30 مقدار مورد انتظار 3) انحراف معیار S را فقط می توان به راحتی محاسبه کرد، اگر همه 30 دارای کوواریانس متقابل 0 4) برای یک ریسک باشند. برنامه مدیریت، که باید مقادیر و همچنین احتمالات را در نظر بگیرد، ما باید یک رویکرد مونت کارلو را به دلیل 1)-3 اعمال کنیم، زیرا هیچ الگوریتم سریعی برای یک راه حل تحلیلی وجود ندارد. Carlo-Approach مانند 4)، اگر برای 30 متغیر تصادفی به جای دو مقدار متفاوت، سه مقدار متفاوت داشته باشیم، قبل از ارسال سوال، بررسی کردم. http://math.stackexchange.com/questions/295363/sum-of-two-random-variables که فقط در مورد توزیع های گسسته یکسان صحبت می کند. سؤالات دیگری که در تأیید متقابل دیدم به نظر می رسد به توزیع های گسسته خاصی مانند برنولی یا توزیع های پیوسته مانند توزیع عادی می پردازد. | مجموع متغیرهای تصادفی گسسته - آیا درست فکر می کنم؟ |
103549 | فرض کنید من یک مدل رگرسیون با e.g. 2 پارامتر $y = ax + b$ اما داده ها غیر عادی هستند، بنابراین قبل از رگرسیون، هر دو طرف را با تخمین Box-Cox تبدیل می کنم. بنابراین من دو پارامتر Box-Cox را نیز دریافت می کنم، $\lambda_x$ و $\lambda_y$. اکنون می خواهم AIC را برای این مدل محاسبه کنم. چند پارامتر وجود دارد؟ غریزه من این است که $\lambda_y$ به عنوان یک پارامتر به حساب میآید اما $\lambda_x$ نیست، زیرا اگر این مدل برای پیشبینی $y$ از $x$ اعمال شود، $\lambda_x$ را میتوان در هر زمان از $x موجود تخمین زد. $ اما ما باید به خاطر داشته باشیم که $\lambda_y$ از کدام $ استفاده کنیم زیرا ما نمیدانیم $y$ که میخواهیم پیشبینی کنیم. | آیا تخمین پارامتر Box-Cox در پارامترهای AIC لحاظ می شود؟ |
64671 | هنگام انجام مقایسه مدل، چرا آزمون نسبت احتمال نیاز به دو مدل تودرتو دارد در حالی که این مورد در هنگام استفاده از AIC لازم نیست؟ | آزمون نسبت درستنمایی در مقابل AIC برای مقایسه مدل |
91072 | من دو سوال -احتمالاً ساده- دارم که مرا آزار میدهند، هر دو مربوط به برنامهنویسی درجه دوم: **1).** دو شکل استاندارد از تابع هدف وجود دارد که من پیدا کردم، که با ضرب منفی 1 متفاوت هستند. بسته R 'quadprog'، تابع هدفی که باید مینیمم شود به صورت $-d^{T}b + \frac{1}{2}b^{T}Db$ و در Matlab هدف به صورت داده شده است. $d^{T}b + \frac{1}{2}b^{T}Db$. چطور ممکن است اینها یکسان باشند؟ به نظر می رسد که یک در یک منفی 1 ضرب شده است (که همانطور که می فهمم از یک مشکل min به یک مشکل حداکثر تغییر می کند. **2).** مربوط به سوال اول، در مورد استفاده از quadprog برای کمینه کردن حداقل مربعات، برای اینکه تابع هدف با فرم استاندارد مطابقت داشته باشد، باید هدف را در مثبت 2 ضرب کنیم. آیا ضرب در عدد مثبت جواب را تغییر نمی دهد؟ **ویرایش:** من علامت اشتباهی برای تابع هدف Matlab داشتم. | بهینه سازی درجه دوم (برنامه نویسی): ضرب در اسکالر |
52462 | من با دادههای تک متغیره ساعتی بازی میکنم و سعی میکنم یک مدل آریما را با بیش از یک فصلی (روزانه، هفتگی) با استفاده از یک ساختگی برای فصلی هفتگی جا بدهم. من یک پست خیلی خوب پیدا کردم که مشکل مشابهی را توضیح می دهد، اما پس از آزمایش های زیاد، ایده هایم با خطای زیر تمام می شود: خطا در optim(init[mask]، armaCSS، روش = optim.method، hessian = FALSE، : non- مقدار محدود ارائه شده توسط optim کد من به شرح زیر است: library(lubridate) start=dmy_hms(25/02/2011 00:00:00) index=start + c(0:1000) * hours(1) week = wday(index) xreg_w = model.matrix(~0+as.factor(week)) colnames(xreg_w) = c («دوشنبه»، «سهشنبه»، «چهارشنبه»، «پنجشنبه»، «جمعه»، «شنبه»، «یکشنبه») freq=24 set.seed(1234) y=ts(log(35+10*rnorm(1001))، f=freq) مدل کتابخانه (پیشبینی) = Arima(y، سفارش=c(0,0,0)، فصلی=لیست(ترتیب=c(1 ,0,0)، period=24)، xreg=xreg_w) | ARIMA دو برابر فصلی با ساختگی در R خطا xreg |
11544 | > آیا زمانی که یک سری زمانی معین تثبیت شده است، روش استاندارد (یا بهترین) برای آزمایش وجود دارد؟ * * * ### برخی انگیزهها من یک سیستم پویا تصادفی دارم که در هر مرحله زمانی $t \in \mathbb{N}$ مقدار $x_t$ را خروجی میدهد. این سیستم تا مرحله زمانی $t^*$ رفتار گذرا دارد و سپس با مقداری خطا در اطراف مقدار متوسط $x^*$ تثبیت می شود. هیچکدام از $t^*$، $x^*$ یا خطاها برای من شناخته شده نیستند. من مایلم برخی فرضیات را مطرح کنم (مثلاً خطای گاوسی در حدود $x^*$) اما هرچه به فرضیات پیشینی کمتری نیاز داشته باشم، بهتر است. تنها چیزی که من با اطمینان می دانم، این است که تنها یک نقطه پایدار وجود دارد که سیستم به سمت آن همگرا می شود، و نوسانات اطراف نقطه پایدار بسیار کمتر از نوسانات در طول دوره گذرا است. این فرآیند همچنین یکنواخت است، میتوانم فرض کنم که $x_0$ نزدیک $0$ شروع میشود و به سمت $x^*$ بالا میرود (ممکن است قبل از تثبیت در $x^*$ کمی بیش از حد شود). دادههای x_t$ از یک شبیهسازی میآیند، و من به تست پایداری به عنوان شرط توقف شبیهسازی نیاز دارم (زیرا من فقط به دوره گذرا علاقه دارم). ### سوال دقیق با توجه به دسترسی به مقدار زمانی $x_0 ... x_T$ برای مقداری $T$ محدود، آیا روشی وجود دارد که با دقت معقول بگوییم که سیستم دینامیکی تصادفی در حدود یک نقطه $x^*$ تثبیت شده است. ? اگر تست $x^*$، $t^*$، و خطای حدود $x^*$ را نیز برگرداند، امتیاز جایزه. با این حال، این ضروری نیست زیرا راههای سادهای برای پی بردن به آن پس از پایان شبیهسازی وجود دارد. * * * ### رویکرد ساده لوحانه رویکرد ساده لوحانه ای که برای اولین بار به ذهن من خطور می کند (مثلاً من دیده ام که به عنوان شرایط برد برای برخی از شبکه های عصبی استفاده می شود) این است که پارامترهای $T$ و $E$ را انتخاب کنم، سپس اگر برای آخرین گام های زمانی $T$ دو نقطه $x$ و $x'$ وجود ندارد به طوری که $x' \- x > E$ سپس نتیجه می گیریم که تثبیت شده ایم. این رویکرد آسان است، اما نه چندان دقیق. همچنین من را مجبور می کند حدس بزنم که مقادیر خوب $T$ و $E$ باید چقدر باشد. به نظر می رسد باید رویکرد بهتری وجود داشته باشد که به تعدادی از مراحل در گذشته نگاه کند (یا شاید به نحوی داده های قدیمی را کاهش دهد)، خطای استاندارد را از این داده ها محاسبه کند، و سپس آزمایش کند که آیا برای تعدادی دیگر از مراحل (یا موارد دیگر) وجود دارد. طرح تخفیف) سری زمانی خارج از این محدوده خطا نبوده است. من چنین استراتژی کمی کمتر ساده اما هنوز ساده را به عنوان پاسخ درج کردم. * * * هر گونه کمک یا ارجاع به تکنیک های استاندارد قدردانی می شود. ### یادداشتهای من نیز این سوال را همانطور که هست در MetaOptimize و در توضیحی با طعم شبیهسازی بیشتر برای علوم محاسباتی ارسال کردم. | تست پایداری در یک سری زمانی |
89370 | اگر چندین مدل خطی دارید، مثلا model1، model2 و model3، چگونه می توانید آن را اعتبار متقاطع کنید تا بهترین مدل را انتخاب کنید؟ (در R) من این را تعجب می کنم زیرا AIC و BIC من برای هر مدل به من در تعیین یک مدل خوب کمک نمی کند. در اینجا نتایج: مدل - اندازه (شامل پاسخ) - Mallows Cp - AIC - BIC Intercept فقط - 1 - 2860.15 - 2101.61 - 2205.77 1 - 5 - 245.51 - 1482.14 - 1502.97 -2314 -2316 - 2860.97 - 1497.87 3 - 7 - 179.76 - 1436.29 - 1465.45 4 - 8 - 161.05 - 1422.43 - 1455.75 5 - 9 - 85.77 - 1360.06 - 1360.06 - 1379 - 1422.43 1354.79 - 1396.44 7 - 17 - 27.00 - 1304.23 - 1375.04 All Variables - 25 - 37.92 - 1314.94 - 1419.07 توجه - فرض کنید مدل ها تو در تو هستند. | AIC BIC Mallows Cp Cross Validation Model Selection |
12015 | آیا کسی پیاده سازی درخت تصمیم را در R (یا دیگر) برای نتایج سانسور شده می شناسد؟ من می خواهم از درخت تصمیم استفاده کنم تا متغیرهای پیوسته را قبل از تجزیه و تحلیل بقا به نوعی اصولی گسسته/بین کنم. من تنها با یک درخت تصمیم گیری سنتی با استفاده از یک هدف باینری (رویداد/بدون رویداد) بدون توجه به ماهیت سانسور شده داده ها در حال حاضر باقی مانده ام. | درخت تصمیم برای داده های سانسور شده |
277 | هنگام مدلسازی دادههای منطقهای مرتبط با ارجاع جغرافیایی، چه زمانی ترجیح میدهیم از مدل خودرگرسیون شرطی نسبت به مدل خودرگرسیون همزمان استفاده کنیم؟ | مدلهای آمار فضایی -- CAR در مقابل SAR |
11547 | من با توجه به مهارت بسیار کم در متن کاوی با چالش سختی روبرو هستم ... اساساً من یک لیست تقریباً دارم. 200 فرد در یک فایل متنی ساده با ساختاری ساده شرح داده شده اند: > «N: (نام)» > «Y: (سال تولد)» > «S: (خواهر و برادر)» > «N: (نام)» > « Y: (سال تولد)` > `S: (خواهر و برادر)` > > `[و غیره]` نتیجه این است: * هر فرد می تواند داده های گم شده داشته باشد، در این صورت خط _حذف می شود. * چند خواهر و برادر، در این صورت ورودی او بیش از یک خط «S:» دارد. تنها ثابت های واقعی در فایل متنی عبارتند از: * هر فرد با یک فایل خالی از یکدیگر جدا می شود. * همه خطوط دارای پیشوند «N:»، «Y:» یا «S:» هستند. آیا روشی وجود دارد که با استفاده از تقریباً هر چیزی از Excel (!) گرفته تا Stata و R یا حتی Google Refine یا Wrangler، آن آشوب سازمانیافته را به یک مجموعه داده استاندارد تبدیل کند، که منظور من از آن، یک ستون در هر توصیفگر، با 'S1, S2 است. ... Sn` ستون برای خواهر و برادر؟ اگر انجمن اشتباه است، لطفاً مرا تغییر مسیر دهید. من فقط متوجه شدم که گروه آمار بیشترین آشنایی را با متن کاوی دارند. | انتقال داده ها از ردیف های خوشه ای به ستون ها |
97151 | یکی از روشهای استاندارد برای استخراج فاصله اطمینان یک پارامتر، روش LRT است که در آن سعی میکنیم منطقه پذیرش آزمون LRT را با اندازه $1-\alpha$ پیدا کنیم، سپس با معکوس کردن آن، یک بازه اطمینان از اطمینان $1 دریافت میکنیم. -\alpha$. اثبات آن را می توان در Berger & Casella، صفحه 421 یافت. با این حال، در عمل پیاده سازی این روش حتی برای توزیع های ساده ای مانند توزیع پواسون، توزیع دو جمله ای و غیره آسان نیست. استراتژی این است: برای هر $\theta_0\ در \Theta_0$، اجازه دهید $A(\theta_0)$ منطقه پذیرش آزمون سطح $\alpha$ از $H_0:\theta=\theta_0$ باشد. برای هر $x\in \mathcal{X}$، یک مجموعه $C(x)$ در فضای پارامتر با $$ C(x)=\\{\theta_0:x\in A(\theta_0)\\ تعریف کنید } $$ از آنجایی که در عمل ما واقعاً نمی دانیم $\theta_0$ چیست و باید به تخمین های مختلفی مانند MME یا MLE پاسخ دهیم، استراتژی فوق از نظر محاسباتی فشرده است. برای پیاده سازی آن در R، باید یک بازه باز $O$ حاوی $\theta$ را انتخاب کنیم، به طور تصادفی $N$ امتیاز را در $O$ انتخاب کنیم، سپس برای هر نقطه $\theta_{i}$ منطقه پذیرش را پیدا کنیم و آیا $x$ در آن است (معمولاً به صورت عددی با ارزیابی بیش از $M$ امتیاز در $\mathcal{X}$). در نهایت کوچکترین و بزرگترین $\theta_i$ را به عنوان فاصله اطمینان انتخاب می کنیم. پیچیدگی در آمار LRT نهفته است. برای هر $\theta_i$، برای یافتن منطقه پذیرش ابتدا باید $c_{\alpha,i}$ را محاسبه کنیم. سپس تست LRT را معکوس کنید تا بازه پذیرش $\lambda(x)>c_{\alpha,i}$ را پیدا کنید. و این بی اهمیت نیست زیرا ما باید یک $c_{\alpha,i}$ معتبر را محاسبه کنیم که یک منطقه رد را با سطح $\alpha$ تعیین می کند. در عمل، حتی برای توزیع دوجملهای این کار آسان نیست (اگرچه میتوان آن را انجام داد). و برای توزیع پیچیده تر ممکن است فرآیند بسیار پیچیده ای باشد. این، همراه با این واقعیت که ما باید بیش از $N$ امتیاز را ارزیابی کنیم، منجر به پیچیدگی محاسباتی بیش از $O(NM)$ یا شاید حتی $O(NM^2)$ می شود. علاوه بر این، تقریبها در هر مرحله در محاسبات عددی، نتیجه واقعی را کمتر دقیق میکند. پس چگونه در عمل این کار را انجام دهیم؟ آیا تلاشی برای کاهش این پیچیدگی محاسباتی صورت گرفته است؟ من اینجا می پرسم چون جواب ساده ای از جای دیگر پیدا نکردم. فکر میکنم دیگران هم قبلاً همین سؤال را میپرسیدند. | راه خوبی برای پیاده سازی فاصله اطمینان LRT معکوس چیست؟ |
64672 | اگر چندین بعد برای داده های خود دارید، جایی که امکان تجسم آنها با هم وجود ندارد، چگونه تصمیم بگیرید که مدل شما باید خطی یا چند جمله ای باشد؟ | رگرسیون خطی در مقابل چند جمله ای |
88399 | این شبیه به مزدوج قبلی است، با این تفاوت که در اینجا من در نظر میگیرم که آیا ممکن است توزیع نمونهگیری و توزیع خلفی تحت یکنواخت قبلی به یک خانواده از توزیعها تعلق داشته باشند؟ به عبارت دیگر، هنگامی که $p(x|\theta)$ را به عنوان تابع احتمال $\theta$ با توجه به $x$ مشاهده میکنیم، و سپس آن را عادی میکنیم تا توزیعی برای $\theta$ باشد، مثالهایی وجود دارد که $p( x|\theta)$ و توزیع $\theta$ متعلق به یک خانواده است؟ به طور کلی تر، آیا نمونه هایی برای پیشین ها به جز توزیع های یکنواخت و نمونه گیری وجود دارد که در آن قسمت های پسین در همان خانواده توزیع های توزیع های نمونه قرار می گیرند؟ با تشکر | هنگامی که توزیع نمونه و توزیع پسین تحت یکنواخت قبلی متعلق به یک خانواده است؟ |
11548 | با توجه به مجموعه داده زیر برای یک مقاله واحد در سایت من: مقاله 1 2/1/2010 100 2/2/2010 80 2/3/2010 60 Article 2 2/1/2010 20000 2/2/2010 25000 2/3/ 2010 23000 که در آن ستون 1 تاریخ و ستون 2 تعداد است بازدید از صفحه برای یک مقاله یک محاسبه شتاب اولیه چیست که میتوان برای تعیین اینکه آیا این مقاله برای روزهایی که دادههای مشاهده صفحه برای آن دارم روند صعودی یا نزولی دارد، انجام داد؟ به عنوان مثال با نگاه کردن به اعداد می توانم ببینم که ماده 1 روند رو به پایین دارد. چگونه می توان آن را در یک الگوریتم به راحتی منعکس کرد؟ با تشکر | بهترین راه برای تعیین اینکه آیا بازدید از صفحه روند صعودی یا نزولی دارد چیست؟ |
52463 | من با آزمایش معمولی نمونه های بزرگ سر و کار دارم. همانطور که در اینجا بیان شد: آیا تست نرمال بودن اساساً بی فایده است؟ اگر نمونه خیلی بزرگ باشد، معمولاً آزمایش اساساً بی فایده است. حتی تست بصری نمی تواند بیانیه روشنی در مورد توزیع بدهد؟ بنابراین، اگر توزیع نرمال باشد، چگونه یک نمونه بزرگ را آزمایش کنیم؟ | چگونه یک نمونه بزرگ را در صورت توزیع نرمال آزمایش کنیم؟ |
100011 | من در حال حل مشکلات توزیع پواسون هستم و به مشکلی برخوردم که در آن باید نرخ (لامبدا) یک چیز خاص را با احتمال 0.001 (1 در 1000) p(4) بررسی کنم. به طور خاص، من باید احتمال پیدا کردن یک کوکی از هر 1000 را که کمتر از 5 کشمش داشته باشد، پیدا کنم. بنابراین باید بگویم قبل از مخلوط شدن خمیر باید چند عدد کشمش وجود داشته باشد تا احتمال بالا را مشخص کنم. ** چگونه می توانم این کار را در R انجام دهم؟ ** در اینجا سؤال واقعی در دست است (من به **Q.7a** علاقه مند هستم)، و در اینجا پیوند با پاسخ ها وجود دارد، لطفاً به پاسخ ها نگاه کنید. > **7.** یک دسته از خمیر کوکی به 100 کوکی بریده می شود و سپس > پخته می شود. 400 عدد کشمش در دسته خمیر گنجانده شده است و خمیر > کاملاً مخلوط شده است تا مواد به صورت تصادفی درآیند. چه شانسی وجود دارد که با وجود این اقدامات احتیاطی، یک یا چند کوکی در دسته > اصلاً کشمش نداشته باشد؟ > > **7a. چه تعداد کشمش باید در دسته خمیر ریخته شود تا 99% مطمئن شوید که هیچ کوکی بدون کشمش بیرون نمی آید؟** | چگونه لامبدا را در R پیدا کنیم، اگر پارامترهای دیگر شناخته شده باشند |
16709 | **زمینه:** اغلب مقادیری در میان مجموعه نمونهگیری وجود دارد که به نظر میرسد با سایر مجموعهها سازگاری چندانی ندارد. آنها را به عنوان مقادیر افراطی یا صرفاً پرت نامیده می شود. برخورد با عوامل پرت همیشه یک موضوع چالش برانگیز بوده است. چند رویکرد برای حل مشکل وجود پرت وجود دارد: * انتقال آنها به یک مجموعه جدا * جایگزینی آنها با نزدیکترین مقادیر از مجموعه غیر پرت * ... **سوال:** بهترین روش پیشنهادی چیست؟ ) برای مقابله با موارد پرت؟ (با جزئیات و مثال) | چگونه با موارد پرت برخورد کنیم؟ |
89376 | من در حال حاضر دانشجوی دکتری آمار زیستی هستم (سال دومم را تمام می کنم). هدف اصلی من از ورود به مقطع کارشناسی ارشد این بود که وارد دانشگاه شوم. اخیراً در مورد این انتخاب بحث کردهام و به این فکر میکنم که آیا شاید صنعت مناسبتر باشد. من از یک پیشینه برنامه نویسی قوی آمده ام. من عاشق استفاده از R هستم زیرا بسیار شبیه به زبان های برنامه نویسی است که من با آنها بزرگ شده ام و حتی می توانم با آنها ارتباط برقرار کنم. من از SAS متنفرم هر وقت مجبور می شوم از آن استفاده کنم، احساس می کنم 2 کفش چپ می پوشم که 3 سایز خیلی کوچک است. من می دانم که SAS در صنعت غالب است. بچه ها فکر می کنید من فقط باید آن را بنوشم و SAS را به طور ماهرانه یاد بگیرم یا می توانم با R کنار بیایم؟ | اگر بخواهم وارد صنعت شوم باید SAS را یاد بگیرم؟ |
88021 | من یک مدل رگرسیون لجستیک نصب کردهام که احتمال پرواز با فاصله تا یک رویداد اختلال را نشان میدهد. حجم نمونه من 140 مشاهده است که 45 مورد آن برای پرواز مشاهده شده است. فاصله تا اختلال تنها پیشبینیکننده مهم در میان بسیاری از کاوششدهها است (تعاملهای مرتبط بیولوژیکی نیز). در اینجا خروجی از کنسول R است. خطای z مقدار Pr(>|z|) (فاصله) -0.1233 0.3438 -0.359 0.7199 approach_km -0.4530 0.2225 -2.036 0.0418 * انحراف صفر: 175.82: 175.82 در 1319 درجه انحراف 1319 درجه آزادی AIC: 175.3 تعداد تکرارهای امتیازدهی فیشر: 4 در اینجا نموداری از احتمالات پیش بینی شده پرواز است.  همانطور که می بینید هیچ نقطه ای در طول پیوستار فاصله وجود ندارد که احتمال پرواز در آن از 0.5 تجاوز کند. از آنجایی که چنین است، جداول طبقه بندی هرگز یک پرواز را پیش بینی نمی کند (67.9٪ را به درستی پیش بینی می کند، ALL THE NO FLIGHT EVENTS!). مک فادن psuedo R2 = 0.026. من از تناسب مدل راضی هستم، اما معتقدم که باید این نوع آمارهای خوب تناسب را هنگام انتشار درج کنم. من ترجیح می دهم نشان دهم که در محدوده مشخصی از داده ها، مثلاً 1 کیلومتر، تقریباً 0.40 احتمال پرواز وجود دارد. اگر 20 مشاهده مرتبط با این تخمین وجود داشت، 8 رویداد پروازی و 12 رویداد غیر پروازی وجود داشت. آیا راهی برای نشان دادن این موضوع وجود دارد؟ چگونه میتوانم این نتایج را بنویسم تا یافتههایم را بدون تردید داور در مورد تستهای عدم تناسب نشان دهم؟ هر گونه فکر یا مرجع بسیار قدردانی خواهد شد. با تشکر به روز رسانی: در پاسخ به @Drew75. در اینجا منحنی ROC است. آیا این به این معنی است که مدل آنطور که فکر می کردم عملکرد خوبی ندارد؟  | رگرسیون لجستیک حسن تناسب |
82442 | آیا تکنیکهایی وجود دارد که اهمیت مقادیر مشخصههای فردی را در یک نقطه داده خاص، از نظر اهمیت کلی / دلالت / مشارکت ویژگی در منحصربهفرد بودن نقطه داده (یکتا بودن با توجه به کل مجموعه داده) کمیت کند. من کاملاً مطمئن نیستم که آیا آن را کاملاً بیان کرده ام. ببخشید اگر در ارائه ام کامل نیستم. من در وب، به ویژه در Google Scholar، زیاد جستجو کردهام، اما در حالی که کلمات کلیدیای که فکر میکنم تمام شده است، چیزی مرتبط پیدا نکردم. لطفاً اگر چیزی مشابه آنچه که من نوشتم وجود دارد به من اطلاع دهید. | آیا تکنیک هایی وجود دارد که اهمیت/معنای مقادیر مشخصه های فردی یک نقطه داده خاص را کمیت کند؟ |
88027 | من دو نمونه داده S1 و S2 دارم که هر دو از خود همبستگی فضایی رنج می برند. نمونهها اندازههای متفاوتی دارند و جفت نیستند (به طور خاص، S1 از M زیرنمونه از k نقطه دادههای همبسته فضایی تشکیل شده است، در حالی که S2 حاوی N از این نمونههای فرعی است). دادهها عمدتاً پیوسته هستند، با این حال، به دلیل کمیت اندازهگیری شده، مقادیری وجود دارد که تعریف نشدهاند اما در مقایسه با بقیه نمونهها بالا هستند و روی مقادیر بالای مصنوعی ثابت تنظیم شدهاند. به همین دلیل فقط می توان از آمار میانه استفاده کرد و سفید کردن داده ها با استفاده از ماتریس کوواریانس امکان پذیر نیست. میخواهم بررسی کنم که آیا S1 و S2 از یک جمعیت هستند یا خیر، اما نمیتوانم چیزی ناپارامتریک پیدا کنم که با دادههای همبسته کار کند. میخواستم بدونم کسی از تستی اطلاع داره که در این شرایط قابل اجرا باشه. | آزمون 2 نمونه ای ناپارامتریک برای داده های همبسته |
110559 | من این سوال را در زمینه یک رگرسیون خطی با متغیر پیشبینیشده تک $Y$ و پیشبینیکنندههای چندگانه $X$ میپرسم. $X$ از نظرسنجی با استفاده از مجموعه آیتم بدست می آید که نشان می دهد همه اقلام به هر پاسخ دهنده ارائه نمی شود، اما فقط زیر مجموعه ای از موارد ارائه می شود. این زیر مجموعه به طور تصادفی انتخاب می شود (اما در مورد فعلی $Y$ همیشه به همه پاسخ دهندگان ارائه می شود). هدف این است که یک مدل رگرسیون خطی را بر روی همه X$ بدون اطلاعات گمشده به دلیل انتخاب تصادفی اقلام تخمین بزنیم. من سه سوال زیر را دارم: 1) با توجه به تصادفیسازی، به نظر میرسد که دادهها به طور تصادفی (MCAR) گم شدهاند. بنابراین، تخمین های آمار کافی (ماتریس همبستگی و میانگین ها) بی طرفانه است. از این رو، من استنباط می کنم که ضرایب رگرسیون باید بی طرفانه باشد. آیا این درست است؟ 2) نرم افزار استاندارد موارد را به صورت فهرستی حذف می کند که منجر به مجموعه ای خالی از مشاهدات می شود. آیا باید ضرایب را فقط با استفاده از آمار کافی برآورد کنم؟ چه رویکردهای مناسبی در R (به عنوان مثال، توابع موجود) خواهد بود؟ 3) برای افزودن پیچیدگی به مسئله، فرض کنید موارد در احتمال (معلوم) ظاهر شدن در نظرسنجی متفاوت است. بنابراین اندازه نمونه به ازای هر جفت آیتم به عنوان تابعی از $np_1p_2$ متفاوت است، که اینها حجم نمونه و احتمال ظاهر شدن در نظرسنجی برای هر دو مورد هستند. چگونه باید اندازه های مختلف نمونه در تخمین خطاهای استاندارد تخمین گنجانده شود، و باز هم توابع موجود در R چگونه می توانند با این موضوع مقابله کنند؟ | رگرسیون خطی را با استفاده از مواردی که به طور تصادفی از یک مجموعه آیتم انتخاب شده اند، تخمین بزنید |
19972 | ... که در آن معنی داری نتایج با آزمون های آماری بررسی شده است. اگر نه، پس چرا؟ **نکته جانبی:** داده ها بر اساس احتمالات قبلی مشخص شده تولید می شوند. | آیا قضاوت در مورد برتری یک تکنیک طبقه بندی تنها با استفاده از داده های مصنوعی معتبر است؟ |
5987 | بدترین کلاسی که در مسائل عملی بد یاد می گیرد کدام است؟ ویرایش: به خصوص در مورد داده های تست بد است.. با تشکر | بدترین طبقه بندی کننده |
46134 | آیا کسی می داند چگونه یک ضریب را تفسیر کند وقتی متغیر در مدل متقابل متغیر اصلی است؟ من یک معادله معکوس دارم، که در آن $\text{time} = \beta_0 + \beta_1(1/\text{horsepower})$، که در آن $\text{time}$ مدت زمان لازم برای شتاب دادن به یک ماشین است. من باید علامت متغیر $\text{horsepower}$ را فرض کنم. اما برای انجام این کار، باید معنی آن را بفهمم. | چگونه یک ضریب رگرسیون را برای متقابل یک متغیر مستقل تفسیر کنیم؟ |
82999 | در حال حاضر در حال یادگیری استفاده از تجزیه و تحلیل اجزای اصلی (PCA) هستم. ایده کلی روش برای من کاملاً واضح است و در این مورد سؤالی ندارم. با این حال، من به توضیحی در مورد چگونگی تفسیر خروجی محاسباتم نیاز دارم. من پستها، تفسیر امتیازات PCA و امتیازات مؤلفه اصلی چیست؟ را دیدهام که به من کمک زیادی کرد، اما هنوز نمیتوانم چیزی از دادههایم دریافت کنم. من یک مجموعه داده متشکل از متغیرهای $x$، $y$، $z$ ایجاد کردهام. متغیر $z$ بسیار به $y$ بستگی دارد، در حالی که $y$ و $z$ تقریباً به متغیر $x$ وابسته نیستند. من محاسبات PCA را انجام داده ام، که از آنها مقادیر ویژه و بردارهای ویژه (مرتب شده در جهت کاهش مقادیر ویژه) بدست آورده ام. سوال من این است: چگونه می توانم نتیجه بگیرم که کدام متغیرها معنی دار و کدام بی معنی هستند؟ چگونه می توانم بگویم که کدام متغیرها با یکدیگر همبستگی دارند؟ چه چیز دیگری را می توانم از داده ها حذف کنم و چگونه؟ ویرایش: می پرسم با داده های اصلاح شده چه کار کنم؟ من مجموعه جدیدی از داده ها دارم که ابعاد کمتری دارند. حالا چی؟ چگونه به من در درک داده ها کمک می کند؟ | چگونه می توانم نتایج تجزیه و تحلیل مؤلفه های اصلی را تفسیر کنم؟ |
52469 | من یک طرح آزمایشی برای آزمایشی در حوزه علوم شناختی طراحی کرده ام، اما 100٪ مطمئن نیستم، اگر ایده من در مورد تجزیه و تحلیل آماری درست باشد. من این آزمایش را برای پایان نامه کارشناسی ارشد خود انجام می دهم. مروج من بیشتر یک فیلسوف است تا یک آماردان، بنابراین من به عنوان افراد با تجربه در این زمینه به شما مراجعه می کنم. ( **سوال 1** :)میشه لطفا یه نگاهی بندازید و بگید خوب به نظر میاد یا نه؟ علاوه بر این من دو سوال دیگر دارم، اگر اشکالی ندارد بپرسم :) # آزمایش دو گروه محرک وجود دارد: 1. تصاویر 1. از نوع _A_ 2. از نوع _B_ 2. جملات 1. از نوع _x_ 2. از نوع _y_ به شخص ابتدا یک محرک (تصویر) از نوع _A_ یا _B_ داده می شود و سپس یک محرک دوم (یک جمله) از نوع _x_ یا _y_. سپس فرد باید نشان دهد که آیا جمله برای تصویر قبلی صحیح است یا خیر. بنابراین من 4 سناریو ممکن دارم: 1. _A_ -> _x_ 2. _A_ -> _y_ 3. _B_ -> _x_ 4. _B_ -> _y_ می خواهم بدانم: 1. _اگر_ تفاوت های جالبی بین، مثلاً، (1) وجود دارد. ) و (3). 2. _جهت_ تفاوت بین موارد (مثلاً افراد در مورد (1) نسبت به مورد (3) پاسخ صحیح تری دادند). 3. _قدرت_ تفاوت بین موارد. # آمار ## Intro Factors یا متغیرهای مستقل، برای تصاویر _I_ و برای جملات _S_ هستند. عامل _I_ دارای دو سطح (_A_ و _B_) و همچنین عامل _S_ دارای دو سطح (_x_ و _y_) است. نتیجه / متغیر وابسته تعداد پاسخ های صحیح است. طرح به صورت فاکتوریل _I_ x _S_ (دو طرفه) می باشد. به هر موضوعی طیف کاملی از محرک ها داده می شود، بنابراین طرح یک اندازه گیری درون آزمودنی ها و اقدامات مکرر است. ## نتایج پس از بررسی اینکه آیا مفروضات لازم (مانند همگنی واریانس های خطا) برآورده شده اند یا خیر... برای اینکه بدانیم: 1. _اگر_ تفاوت های جالبی بین مثلا (1) و (3) وجود داشته باشد، ابتدا نیاز دارم. برای بررسی اینکه آیا تعامل بین _I_ و _S_ وجود دارد یا خیر. اگر چنین است، پس من یک تست پس از پایان (Tuckey's) انجام خواهم داد تا بفهمم دقیقاً کجا تفاوت ها وجود دارد. 2. _جهت_ تفاوت های بین موارد (مثلاً افراد در مورد (1) پاسخ های صحیح تری نسبت به مورد (3) دادند)، من می بینم که میانگین در موقعیت صحیح در آزمون تعقیبی بزرگتر است. 3. _قدرت_ تفاوت بین موارد. اندازه افکت $R^{2}$ یا $\eta^{2}$ است. ( **سوال 2** :) اما چگونه می توان آن را برای موارد فردی دید؟ آخرین چیزی که من نمی دانم این است که چگونه می توانم موقعیت را تفسیر یا اصلاح کنم، اگر چنین اتفاقی بیفتد که مثلاً بین _I_ (تصاویر) تفاوت (اثر اصلی) وجود داشته باشد. من ترجیح می دهم هیچ تفاوتی بین تصاویر و جملات نداشته باشم، فقط تعامل. البته من نمی توانم روی آن حساب کنم. ( **سوال 3** :)آیا راهی برای مقابله با چنین مشکلاتی وجود دارد؟ | در تأیید طرح آزمایش من کمک کنید |
19391 | تفاوت (ها) بین طراحی فاکتوریل 2x2 و ANOVA دو طرفه چیست؟ آیا آنها همین پیش فرض ها را دارند؟ | تفاوت بین آزمایش طراحی فاکتوریل 2x2 و ANOVA دو طرفه چیست؟ |
88025 | من در حال انجام پروژه ای برای طبقه بندی حضور ماشین ها/دوچرخه ها در یک تصویر هستم. ویژگی ها را از تصاویر (مجموعه داده ماشین ها و تصاویری که متعلق به ماشین ها نیستند) استخراج کرده ام و برای به دست آوردن یک فرم خوشه بندی K-means را اعمال کرده ام. بردار ویژگی X برای همه تصاویر طبقهبندی کننده SVM (کرنل RBF). در این مورد، آیا کاهش تعداد ویژگیها گزینه خوبی است (قبل از دادن ویژگی به دست آمده از تصویر قبل از دادن آن به خوشهبندی)؟ با تشکر و احترام | وقتی دقت در فرآیند اعتبارسنجی متقابل کمتر است، آیا کاهش ویژگی ها ایده خوبی است؟ |
89374 | در این مطالعه: روزنبلوم، سارا و همکاران. دست خط به عنوان ابزاری عینی برای تشخیص بیماری پارکینسون. مجله عصب شناسی 260.9 (2013): 2357-2361 محققان تلاش می کنند تا بیماری پارکینسون (PD) را با یک گروه کنترل 20 شرکت کننده و یک گروه بیماران PD متشکل از 20 شرکت کننده طبقه بندی کنند، در حالی که شرکت کنندگان در حال نوشتن بر روی یک قلم و کاغذ دیجیتالی هستند. محققان دریافتند که یک تحلیل MANOVA پیشبینی میکند که با دقت 95 درصد. من با MANOVA کاملاً تازه کار هستم، اما به نظر می رسد که نیاز به جداسازی گروه ها از مجموعه آموزشی و مجموعه های اعتبار سنجی وجود دارد. درست میگم؟ به عبارت دیگر، آیا MANOVA مستعد اضافه تناسب است؟ | استفاده از MANOVA برای طبقه بندی بدون جدا کردن مجموعه های آموزشی و تست |
82990 | آیا راه ساده ای برای ارزیابی pdf دامنه مجموع بردارها با دامنه های ثابت و فازهای تصادفی وجود دارد؟ به صراحت، اجازه دهید $Ae^{i\phi}=\sum_{n=1}^NA_ne^{i\phi_n}$، که در آن $N$ یک عدد صحیح مثبت ثابت است، $A_n$ اعداد حقیقی مثبت ثابت هستند، و $\phi_n$ به طور مستقل به طور یکنواخت روی $[0,2\pi)$ توزیع شده است. سپس $A$ قدر واقعی غیر منفی مجموع است، و $\phi$ فازی است که من به آن اهمیتی نمیدهم. آیا یک عبارت ساده برای pdf $A$ وجود دارد؟ (یا به طور معادل، یک عبارت ساده برای pdf $A^2$؟) در صورت عدم موفقیت، آیا تقریب معقولی وجود دارد که برای $N$ بزرگ و کوچک کار کند؟ من از این بررسی تحقیقاتی در مورد سؤالات مرتبط کار می کنم: * Abdi et al. 2000، در PDF مجموع بردارهای تصادفی، IEEE Trans. اشتراک. **48** (1) 7-12. DOI: 10.1109/26.818866، پیش چاپ رایگان: http://web.njit.edu/~abdi/srv.pdf من منابع ارائه شده در صفحه اول برای مورد (3) و (c) تحلیلی های مختلف را مرور کردم تقریبی، اما من چیزی رضایت بخش پیدا نکردم. به نظر می رسد به طور کلی مشکل سختی است. خبر خوب این است که من به دامنه های ثابت $A_n$ علاقه مند هستم که باید مشکل را ساده کند. خبر بد این است که من به مقادیر دلخواه $A_n$ علاقه مند هستم. ممکن است 100 بردار با بزرگی مشابه وجود داشته باشد، یا ممکن است 1 بردار غالب و 5 بردار بسیار کوچکتر وجود داشته باشد، و غیره. من میخواهم پیدیاف را میلیونها بار در ثانیه ارزیابی کنم، این یکی از دلایلی است که از انتگرالهای بخش دوم نظرسنجی اجتناب میکنم. اگر انتگرالها برای $A_n$ ثابت دچار یک سادهسازی گسترده شوند، برای من واضح نیست، پس لطفاً اگر چنین است به من اطلاع دهید! امیدوارم از پاسخ این سوال در رویکرد بیزی برای ردیابی زمین چندصدایی استفاده کنم. ارزیابی احتمال پاسخ فیلتر مشاهده شده ناشی از مجموعه ای از زنگ های پیشنهادی با دامنه های فیلتر شده خاص و فازهای ناشناخته مفید خواهد بود. اگر راه حل عالی وجود نداشته باشد، می توانم دوباره به یک هک زشت بازگردم: اگر $N=2$ باشد، راه حل دقیق را محاسبه کنید. اگر $N> 2$ باشد، توزیع $A$ را با یک توزیع Rayleigh تقریبی کنید که به پشتیبانی صحیح کوتاه شده است. بنابراین، حدس میزنم به دنبال راهحلی هستم که کمی بهتر از آن باشد. به عنوان مثال، قرار دادن قله ها در مکان های صحیح زمانی که $N=3$ باشد، عالی خواهد بود. | مجموع بردارهای تصادفی با دامنه های ثابت |
103542 | من میدانم که وقتی عامل کمی است، تعامل $AB$ میتواند یک جزء خطی و یک جزء درجه دوم داشته باشد و بنابراین $AB^2$ در آنجا معنا پیدا میکند. اما وقتی عناصر کیفی داریم این چگونه ترجمه می شود؟ _طراحی و تجزیه و تحلیل آزمایشات_ توسط مونتگومری می گوید که اجزای $AB$ و $AB^2$ معنای واقعی ندارند. اما چرا باید از آنها استفاده کنیم؟ آیا کسی می تواند پاسخی شهودی برای این موضوع به من بدهد یا به جایی که می توانم تفسیر بهتری پیدا کنم اشاره کند؟ | معنی تعامل $A(B^2)$ در فاکتوریل 3 سطحی با 2 عامل $A$ و $B$، زمانی که عوامل کیفی هستند چیست؟ |
80596 | من در حال حاضر یک رگرسیون خطی اجرا می کنم و $R^2$ آن را پس از آن محاسبه می کنم. من فاصله کوک از همه نقاط را محاسبه میکنم و تمام نقاط با فاصله بالاتر از $d_i >\frac{4}{\text{No را از تحلیل دور میکنم. مشاهدات}}$. در کمال تعجب، $R^2$ بدتر است. این چگونه ممکن است؟ | فاصله کوک و R^2$ |
66109 | من یک سری نقاط (x1,y1) دارم که چگونه می توانم یک سری از نقاط (x2,y2) را برگردانم که روی یک منحنی گاوسی هستند که با داده ها مطابقت دارند. | نحوه تناسب گاوسی |
17251 | من به دنبال یک تعریف غیر فنی از کمند و آنچه که از آن استفاده می شود هستم. | کمند در تحلیل رگرسیون چیست؟ |
88023 | فرض کنید یک نظرسنجی ماهانه دارید که سؤالات مختلفی می پرسد که پاسخ ها و خطای استاندارد را جمع آوری می کنید. با این حال، برخی از پاسخ دهندگان شروع به ارائه پاسخ به نظرسنجی ماهانه به صورت مکرر، اما نامنظم می کنند. توجه داشته باشید که برخی از پاسخ دهندگان هستند، اما نه همه، و پاسخ های آنها در روزهای مختلف، به طور بالقوه با همپوشانی های مختلف خواهد آمد. بهترین گزینه برای به روز رسانی نظرسنجی به صورت روزانه برای ارائه اطلاعات نظرسنجی انبوه (یا یک سری زمانی از پاسخ سوال اساسی) چیست؟ جایگزینی؟ میانگین متحرک؟ فیلتر کالمن؟ تکنیک های دیگر؟ متناوباً، موقعیتی را در نظر بگیرید که در آن چندین نظرسنجی دارید که سؤالات کافی مشابه می پرسند. شما اطلاعات مربوط به نظرسنجی ها را در روزهای مختلف (میانگین، شمارش، خطاهای استاندارد) به دست می آورید، به طور بالقوه بیش از یک مورد در روز. بهترین راه برای تجمیع اطلاعات مختلف نظرسنجی در یک سری اصلی چیست؟ | جمع آوری اطلاعات نظرسنجی در طول زمان |
276 | آیا یک قاعده کلی یا اصلاً راهی وجود دارد که بگوییم یک نمونه باید چقدر بزرگ باشد تا بتوان یک مدل را با تعداد مشخصی از پارامترها تخمین زد؟ بنابراین، برای مثال، اگر بخواهم رگرسیون حداقل مربعات را با 5 پارامتر تخمین بزنم، نمونه باید چقدر باشد؟ آیا مهم است که از چه تکنیک تخمینی استفاده می کنید (مثلاً حداکثر احتمال، حداقل مربعات، GMM)، یا چند یا چه آزمایش هایی را که قرار است انجام دهید؟ آیا هنگام تصمیم گیری باید تنوع نمونه را در نظر گرفت؟ | یک نمونه برای یک تکنیک و پارامترهای تخمین مشخص چقدر باید بزرگ باشد؟ |
89373 | برای یک پروژه لیسانس تشخیص احساسات بالقوه، فکر میکردم وقتی نتایجم را میگیرم، چه آزمون آماری را باید انجام دهم تا آزمایش کنم که آیا مهم است یا خیر. من آزمایش خواهم کرد که کدام ترکیب از استخراج ویژگی و الگوریتم یادگیری ماشین بهترین درصد طبقه بندی صحیح را به من می دهد. نتایج از ترکیب A وجود خواهد داشت ...٪ طبقه بندی شده، ترکیب B ...٪، ترکیب C ...٪ و غیره. از کدام آزمون آماری برای آزمایش اینکه آیا ترکیب ... به طور قابل توجهی بهتر از بقیه است یا خیر استفاده کنم و چرا؟ به عنوان مثال: 6 احساس باید در یک پایگاه داده با 100 چهره برای هر احساس شناسایی شوند (مجموع 600). هر الگوریتم یادگیری ماشینی از 2/3 برای آموزش و 1/3 برای آزمایش استفاده می کند. کدام چهره در هر احساس در مجموعه آموزشی و کدام یک در مجموعه آزمایشی است به طور تصادفی در هر دوره برای 100 دوره انتخاب می شود. نتیجه نهایی به عنوان مثال: ترکیب A طبقه بندی شده 93.4٪ صحیح، ترکیب B 91.2٪، ترکیب C 86.3٪ و غیره. برای آزمایش اینکه آیا ترکیب A به طور قابل توجهی بهتر از ترکیب B (و C) است، از کدام آزمون آماری استفاده کنم و چرا؟ همچنین آیا دوقطبی است؟ زیرا احتمال موفقیت در انتخاب احساس مناسب 16.67 درصد است. | آزمون آماری درصد صحیح طبقه بندی شده توسط تشخیص احساسات |
52464 | چگونه می توانم یک مدل چندسطحی بیزی را با ساختار همبستگی AR(1) منطبق کنم؟ من سعی میکنم مدلسازی بیزی را به خودم بیاموزم و در تعجب هستم که چگونه میتوان یک مدل چند سطحی با ساختار همبستگی AR(1) را مشخص کرد. مثلاً چگونه می توانم معادل را از nlme با استفاده از «JAGS» یا «stan» دریافت کنم؟ lme(y ~ زمان + x، تصادفی=~زمان|موضوع، corr=corAR1()) | بیزی چند سطحی با ساختار همبستگی AR1 |
46136 | من سعی می کنم اندازه اثر را برای یک صفت که برای مجموعه متغیرهای مزاحم من تنظیم شده است محاسبه کنم. مدلهای من به این شکل هستند: Trait ~ Dx + Age + Sex که در آن Trait یک متغیر پیوسته است و Dx یک متغیر عضویت گروه باینری است. من از این فرمول اولیه برای به دست آوردن تخمین اندازه اثر استفاده می کنم: (میانگین(خصیصه[که(Dx==0)])-میانگین(خصیصه[که(Dx==1)]))/SDpooled اما بیشتر علاقه مند هستم در اندازه اثر پس از تصحیح «سن» و «جنس». من میانگین حاشیه ای (یعنی تصحیح شده برای سن و جنس) را برای تقسیم «خصیصه» توسط گروه «Dx» محاسبه کردم، همانطور که در اینجا نشان داده شده است: در صفحه 15، بخش 7.5 (PDF) اما می خواهم بدانم از کدام انحراف معیار باید استفاده کنم. آیا لازم است که انحراف استاندارد تلفیقی توسط متغیرهای کمکی نیز تنظیم شود؟ آیا راه بهتری برای به دست آوردن تخمین اندازه اثر با مجموعه ای از متغیرهای مزاحم وجود دارد؟ | انحراف استاندارد برای برآورد اندازه اثر تعدیل شده |
88024 | اگر نتایج لاجیت و شبکه عصبی شما از نظر دقت بسیار به هم نزدیک باشند، چه نتیجهگیری میکنید؟ جایی که logit هر متغیر را به طور مستقل وارد می کند. آیا باید نتیجه بگیرید که مدل قابل تفکیک افزایشی شما در لاجیت احتمالاً درست است زیرا به نتیجه شبکه عصبی نزدیک است، که می تواند هر شکل عملکردی را تقریبی کند؟ متشکرم | اگر لاجیت و شبکه عصبی خیلی نزدیک هستند؟ |
82444 | من آزمایشی دارم که در آن پاسخ دهندگان در دو مقطع زمانی مورد آزمایش قرار گرفتند. با این حال، پاسخ دهندگان در t1 و t2 OR t1 و t3 OR t1 و t4 مورد آزمایش قرار گرفتند. بنابراین، داده ها در t2، t3، و t4 برای 3/4 از پاسخ دهندگان از دست رفته است. من با فرض تصادفی موارد گمشده را برآورده میکنم، اما آیا چیز دیگری وجود دارد که قبل از راهاندازی دستگاه انتساب باید در نظر بگیرم؟ با تشکر | انتساب چندگانه برای یک مطالعه طولی |
88028 | این سوال قبلا مطرح شده بود. اما تاکنون هیچ پاسخ قانع کننده ای دریافت نکرده ام. بنابراین دوباره آن را مطرح می کنم. فرض کنید مدل خطی $$ y = X \beta + v, \quad v \sim (0, \sigma^2 I)، $$ که $X$ دارای رتبه ستون کامل است را داریم. برآوردگر حداقل مربعات $\hat{\beta}=X^\dagger y$ ادعا شده است که بهترین برآوردگر خطی بی طرفانه بردار پارامتر واقعی $\beta$ است. من تمام کتابها و مطالب آنلاینی را که میتوانستم برای اثبات پیدا کنم بررسی کردم، اما متوجه شدم که به نظر میرسد همه آنها مشکل اشتقاق دارند. برای اثبات آن، $\bar{\beta} = Cy$ هر برآوردگر خطی بی طرفانه $\beta$ است. با استفاده از این واقعیت که $\bar{\beta}$ یک برآوردگر بی طرفانه است، می توانیم به راحتی $(CX-I)\beta = 0$ را بدست آوریم. سپس تمام کتاب ها و مطالب آنلاین فقط به این نتیجه می رسند که $CX-I$ باید 0 باشد. من اصلاً این را نمی فهمم. اگر $\beta$ دلخواه بود، مطمئناً ما $CX-I = 0$ خواهیم داشت. اما $\beta$ در اینجا یک بردار پارامتر خاص است. چرا می توان $CX-I=0$ را ادعا کرد؟ | اثبات برآورنده حداقل مربعات آبی است |
89375 | بنابراین من سعی می کنم نشان دهم که ${\rm Var}(Z) \le 2({\rm Var}(X)+{\rm Var}(Y))$ برای $Z = X + Y$. به نظر می رسد با توجه به اینکه $X$ و $Y$ همبستگی ندارند نشان دادن این بسیار آسان باشد. اما من در این مرحله با مشکل مواجه شدم: $$ {\rm Var}(Z) = {\rm Var}(X) + {\rm Var}(Y) + 2E[XY] - 2E[X]E [Y] $$ معمولاً میتوانید بگویید، $X$، $Y$ غیر همبسته $\rightarrow E[XY] = E[X]E[Y]$، اما وقتی نمیتوانید این کار را انجام دهید، من گم میشوم. هر گونه راهنمایی؟ | واریانس Z برای Z = X + Y، زمانی که X و Y همبستگی دارند |
17110 | من یک مدل OLS با متغیر شاخص دارایی پیوسته به عنوان DV اجرا می کنم. داده های من از سه جامعه مشابه در مجاورت جغرافیایی نزدیک به یکدیگر جمع آوری شده است. با وجود این، من فکر کردم مهم است که از جامعه به عنوان یک متغیر کنترل کننده استفاده کنم. همانطور که به نظر می رسد، جامعه در سطح 1% معنی دار است (نمره t 4.52-). جامعه یک متغیر اسمی/طبقه ای است که به صورت 1،2،3 برای 1 از 3 جامعه مختلف کدگذاری شده است. سوال من این است که آیا این درجه از اهمیت بالا به این معنی است که من باید به جای تجمیع، رگرسیون هایی را بر روی جوامع انجام دهم. در غیر این صورت، آیا استفاده از جامعه به عنوان یک متغیر کنترل کننده اساساً این کار را انجام می دهد؟ | آیا باید برای هر جامعه رگرسیون های جداگانه ای اجرا کنم یا اینکه جامعه می تواند به سادگی یک متغیر کنترل کننده در یک مدل انبوه باشد؟ |
16702 | من سعی کرده ام از رگرسیون وزنی در برخی از داده ها استفاده کنم که در آن سه متغیر طبقه بندی با دستور lm(y ~ A*B*C) در R وجود دارد. این برای مقابله با مشکلی بود که نمودار باقیمانده من ثابت نیست. واریانس، و اینکه برای یکی از عوامل، واریانس دو سطح بسیار کوچکتر از سطح دیگر و در سایر عوامل است، بنابراین من وزن ها را در یک بردار ww برای هر مشاهده تعریف می کنم، بنابراین که مشاهدات مربوطه به اندازه مشاهدات دیگر کمک نمی کند، و از lm(y ~ A*B*C، وزن ها=ww) استفاده می کنم. از وزنه استفاده کنید آیا قرار است این اتفاق بیفتد؟ آیا به این دلیل است که همه متغیرهای A، B، C دسته بندی هستند؟ به نظر می رسد تا حدی منطقی باشد زیرا ضرایب رگرسیون (بتا در مدل خطی) فقط میانگین و تفاوت با میانگین مرجع در مدل غیر وزنی هستند و من فکر می کنم که با استفاده از رگرسیون وزنی نیز چنین خواهد بود. ، اما مطمئن نیستم. آیا کسی می تواند در این مورد به من کمک کند؟ من کمی گم شده ام. یعنی آیا کسی می تواند به من بگوید که آیا نباید از حداقل مربعات وزنی برای رفع مشکلات واریانس ناهمگن باقیمانده ها استفاده کنم؟ (من همچنین سعی کردم متغیر پاسخ، $\log(y)$ را تبدیل کنم، کمک کرد اما مشکل برطرف نشد. | رگرسیون وزنی برای متغیرهای طبقه بندی شده |
88398 | در یک مجموعه داده کوچک ($n\sim100$) که من با آن کار میکنم، چندین متغیر به من پیشبینی/جداسازی کاملی میدهند. بنابراین من از رگرسیون لجستیک فرث برای مقابله با این موضوع استفاده می کنم. اگر بهترین مدل را توسط AIC یا BIC انتخاب کنم، آیا هنگام محاسبه این معیارهای اطلاعاتی باید عبارت جریمه Firth را در احتمال آن لحاظ کنم؟ | انتخاب مدل با رگرسیون لجستیک فرث |
278 | هنگامی که یک تجزیه و تحلیل خوشه ای غیر سلسله مراتبی انجام می شود، ترتیب مشاهدات در فایل داده، نتایج خوشه بندی را تعیین می کند، به خصوص اگر مجموعه داده کوچک باشد (یعنی 5000 مشاهده). برای مقابله با این مشکل، من معمولاً یک مرتبه مجدد تصادفی از مشاهدات داده ها را انجام می دادم. مشکل من این است که اگر تجزیه و تحلیل را n بار تکرار کنم، نتایج به دست آمده متفاوت است و گاهی اوقات این تفاوت ها بسیار زیاد است. چگونه می توانم با این مشکل مقابله کنم؟ شاید بتوانم چندین بار آنالیز را اجرا کنم و پس از آن در نظر بگیرم که یک مشاهده متعلق به گروهی است که زمان های بیشتری در آن اختصاص داده شده است. کسی رویکرد بهتری برای این مشکل دارد؟ مانوئل رامون | چگونه می توان با تأثیر ترتیب مشاهدات در تحلیل خوشه ای غیر سلسله مراتبی برخورد کرد؟ |
80592 | در ویکی نمودار زیر ترسیم شده و متن زیر نوشته شده است:  > از نمودار مشخص است که توزیع احتمال شرطی > متغیر پنهان x(t) در زمان t، با توجه به مقادیر متغیر x پنهان > همیشه، فقط به مقدار متغیر پنهان بستگی دارد > x(t − 1): مقادیر در زمان t − 2 و قبل از آن هیچ تأثیری ندارند. حالا مشکل اینجاست که نمیفهمم چرا این برای X_1$ درست است، زیرا یک حلقه در آنجا وجود دارد و در نتیجه نمیتوانم ببینم چرا این شکل زیر است: $$p(X_1|X_2,X_3)=p(X_1|X_0 =\emptyset)=p(X_1)$$ اما در واقع باید اینگونه باشد: $$p(X_1|X_2,X_3)=p(X_1|X_2)$$ | سردرگمی در مورد تعریف مدل های پنهان مارکوف؟ |
16708 | هر وقت در فیزیک آزمایشی انجام می دهیم، به عنوان مثال. با اندازه گیری ثابت پلانک، میانگین چندین مشاهدات تجربی را می گیریم. به نظر می رسد این واضح ترین راه برای گزارش یک نتیجه باشد. آیا استدلالی مبتنی بر MLE یا سایر مفاهیم آماری وجود دارد که بتوان از آن برای توجیه اینکه میانگین بهترین راه برای اندازه گیری مقدار در چندین مشاهدات است استفاده کرد؟ | دلیل گرفتن میانگین مشاهدات تجربی |
17258 | با استفاده از truehist() از MASS یا فقط تابع hist() عادی در R با گزینه prob=TRUE، مقادیر بسیار عجیبی برای محور y دریافت می کنم. تصور من این بود که همه این مقادیر باید زیر 1.00 باشد، زیرا فرکانس نسبی هر مقدار باید زیر 1.00 باشد و ناحیه زیر منحنی به آن اضافه میکند. در عوض، من محورهایی با دامنههای 1500 و اندازه گامها در صدها را دریافت میکنم. کسی میدونه جریان چیه؟ مقادیر با رویداد سازگار نیستند، بنابراین به نظر نمی رسد که مقیاس نسبی نسبت به آنها داشته باشند. برای مرجع، من از کد زیر استفاده می کنم: `hist(g1$Betweenness, main=, xlab=Betweenness, sub=Generation 1, prob=TRUE)` داده های یکی از این نمودارها: 0.009619951 0.009619951 0.006750843 0.006750843 0.006750843 0.006750843 0.014497435 0.006750843 0.006750843 0.006750843 0.006750843 0.00670850843 0.00670850843 0.006750843 0.006750843 0.006750843 0.006750843 0.006750843 0.006750843 0.006750843 0.00670850843 0.006750843 0.006750843 0.006750843 0.008663582 0.008663582 0.006750843 0.012058693 0.012489059 0.0245835832 0.01248905 0.012489059 به طرز آزاردهنده ای، JMP به خوبی از پس این کار برمی آید، اما من سبک ترسیم R را ترجیح می دهم. | مشکل عجیب و غریب با یک هیستوگرام در R با یک محور فرکانس نسبی |
97153 | من می خواهم تأثیر عوامل مختلف را بر روی لیستی از y محاسبه کنم. مشکل این است که برخی از y نیز در ماتریس ضرایب گنجانده شده اند، بنابراین cv.glmnet ضریب 1 را برای این ضریب محاسبه می کند، اما من می خواهم که صفر باشد، بنابراین فقط عوامل دیگر برای ماتریس ضریب در نظر گرفته می شوند. . بنابراین سوال من این است که آیا گزینه هایی برای حذف ضریب در این مورد یا تغییر ضریب به صفر در حین محاسبه وجود دارد؟ راه حل آسان من این است که مقادیر فاکتور را روی صفر قرار دهم تا نتواند تأثیری داشته باشد. اسکریپت: برای ( i in 1:dim(allsamples)[1]) { #allsamples= x genes, Y samples gene=as.data.frame(allsamples[x,]) #for one gene --> Y observations gene= به عنوان. colnames(tfs)=tfgenes[,1] tfs=tfs[-1,] # عبارت را صفر کنید اگر gene=ضریب تاثیر؟ if(length(intersect(gene,colnames(tfs)))==1) { tfs[, intersect(gene,colnames(tfs))]=rep(0,125) #ردیف یا ستون؟ }else { tfs=tfs } z=NULL #repeat regression for(i در 1:100) { cv.fit=cv.glmnet(data.matrix(tfs),gene,family=gaussian,nfolds=10, alpha =1,type.measure=mse) lambda=cv.fit$lambda.min z=rbind(z,lambda) } # all lambda.min mean_lambda_min=mean(z) #رگرسیون با میانگین لامبدا حداقل fit=glmnet(data.matrix(tfs),gene,family=gaussian,lambda=mean_lambda_min, آلفا=1) # ماتریس ضرایب برای هر ژن ماتریس=rbind(ماتریس،t(as.matrix(ضریب(مناسب))))} | عوامل مستثنی |
64676 | من همبستگی پیرسون را با استفاده از pearsonr(var1, var2) محاسبه کردهام. میدانم که عدد اول همبستگی پیرسون و عدد دوم معنیدار است. چند سوال دارم: * بالاتر از کدام مقدار می توانیم همبستگی معنی داری در نظر بگیریم؟ * آیا مربع R فقط «R**2» است؟ * چگونه مربع R تنظیم شده را محاسبه کنم؟ | معنی آماری خروجی pearsonr() در پایتون |
88026 | من 6 علامت آناتومیکی روی یک استخوان (بازو) و روی 2 نقطه روی استخوان دیگر (زندان) دارم. من فواصل بین هر ترکیب مختلف از آن نقاط را در دامنه حرکت (هر 10 درجه از 10 درجه تا 90 درجه) از آن 2 استخوان (آرنج) اندازهگیری کردم. من در نهایت به یک طرح اندازه گیری مکرر $2\times6\times9$ می رسم. اساسا من 6 ترکیب روی زاویه خم شدن برای 1 نقطه روی استخوان زند و 6 ترکیب دیگر روی زاویه خم شدن برای نقطه دیگر روی استخوان زند وجود دارم. و سوال من این است که آیا تفاوت کلی بین 6 ترکیب اول و 6 ترکیب دیگر وجود دارد؟ آیا می توان با ANOVA اقدامات مکرر 3 طرفه با در نظر گرفتن اثرات اصلی به این سوال پاسخ داد؟ من قبلاً هر ترکیب را با تجزیه و تحلیل post-hoc مقایسه کردم، اما خوب است بدانیم آیا تأثیر کلی وجود دارد یا خیر. من واقعاً از تخصص شما در این زمینه قدردانی می کنم. پیشاپیش از شما بسیار سپاسگزارم | اقدامات مکرر ANOVA 3 طرفه: اثرات اصلی |
97155 | من یک مجموعه داده دارم که در آن دو سطح از متغیرهای درونی دارم. من مجموعهای از «سناریوها» دارم و هر سناریو مجموعهای از «محاکمهها» دارد، و همه سناریوها توسط افراد مشابهی بازی میشوند. همانطور که از اینجا فهمیدم «آزمایشات» من در «سناریو» قرار دارند. در این صورت چگونه می توانم میانگین و انحراف معیار را محاسبه کنم؟ و اگر مجموعهای از افراد متعدد دارم - در دستههای مستقل، مانند مثال مرجع، یک قدم بیشتر بردارم، چگونه میتوانم مدل ANOVA را که دادههای من را توصیف میکند، مشخص کنم؟ (مثلاً مجموعه افراد در شرایط مختلف بازی می کنند، اما سناریوها یکسان با همان محاکمه). | چگونه می توان آمار خلاصه برای عوامل تو در تو را محاسبه کرد؟ |
46130 | چگونه می توان نرخ یادگیری بهینه را برای نزول گرادیان تعیین کرد؟ من فکر می کنم اگر تابع هزینه مقدار بیشتری نسبت به تکرار قبلی برمی گرداند (الگوریتم همگرا نمی شود) می توانم به طور خودکار آن را تنظیم کنم، اما واقعاً مطمئن نیستم که چه مقدار جدیدی باید بگیرد. | نرخ یادگیری بهینه را برای نزول گرادیان در رگرسیون خطی تعیین کنید |
270 | به دلیل فاکتوریل در توزیع پواسون، تخمین مدلهای پواسون (مثلاً با استفاده از حداکثر احتمال) زمانی که مشاهدات بزرگ هستند غیرعملی میشود. بنابراین، به عنوان مثال، اگر من بخواهم مدلی را تخمین بزنم که تعداد خودکشی ها در یک سال مشخص را توضیح دهد (فقط داده های سالانه در دسترس است) و بگویم هر سال هزاران خودکشی وجود دارد، آیا بیان صدها خودکشی اشتباه است. ، به طوری که 2998 می شود 29.98 ~ = 30؟ به عبارت دیگر آیا تغییر واحد اندازه گیری برای قابل مدیریت شدن داده ها اشتباه است؟ | رگرسیون پواسون با داده های بزرگ: آیا تغییر واحد اندازه گیری اشتباه است؟ |
10703 | من فاکتورسازی QR را بر اساس بازتابهای خانوار (به منظور محاسبه تناسب OLS) پیادهسازی کردهام. از نظر ریاضی، ماتریس $R$ مثلث بالایی است. با این حال، به دلیل مسائل مربوط به ممیز شناور، من معمولاً با ورودی های کوچک غیرصفر زیر قطر مواجه می شوم. با آنها چه باید بکنم - رها کنم یا روی صفر تنظیم کنم و چرا؟ برای مثال، ورودی زیر: [[ 1 1 10] [ 3 3 5] [ 2 4 -6] [ 1 10 8]] ماتریس $R$ زیر را تولید می کند: [[ -3.87298335e+00 -7.22956891e+00 -5.42217668e+00] [ -8.88178420e-16 8.58681159e+00 4.86793026e+00] [ -4.44089210e-16 -3.33066907e-16 1.31111882e+01]] زیر ضلع اصلی را توجه کنید. برای مقایسه، هم «numpy» و هم «R» صفرهای دقیق را برمیگردانند، بنابراین نمیدانم آیا دلایلی برای انجام همین کار وجود دارد یا خیر. | فاکتورسازی QR: مسائل مربوط به ممیز شناور |
97150 | > یک بیمارستان دو پزشک دارد، دکتر داوسون و دکتر بایک. دکتر داوسون برای پاسخگویی به تماسهای بیماران برای بازههای زمانی که به صورت نمایی > با میانگین 2 ساعت توزیع میشوند، در دسترس است. بین این دورهها، او به استراحت میپردازد که هر یک از آنها مدت زمان تصاعدی با 30 دقیقه است. دکتر بایک مستقل از دکتر داوسون کار می کند، اما با الگوهای کاری مشابه. زمان > دوره هایی که او برای دریافت تماس های بیماران در دسترس است و زمان های استراحت > متغیرهای تصادفی نمایی با میانگین 90 و 40 دقیقه > هستند. در درازمدت، چه نسبت زمانی است که > هیچ یک از دو پزشک برای پاسخگویی به تماس بیماران در دسترس نیستند؟ مشکلی که من با این سوال دارم، یافتن احتمالات حالت پایدار نیست، بلکه نحوه تنظیم ماتریس نرخ گذار برای این سوال است. رویکرد من به شرح زیر است: اگر نه دکتر داوسون و نه دکتر بایک برای پاسخگویی به تماسهای بیماران در دسترس نیستند، اجازه دهید X(t) = 0 دلار باشد. اگر هر دو برای برقراری تماس در دسترس هستند، اجازه دهید X(t) = 2 دلار باشد. اجازه دهید $X(t) = d$ اگر دکتر داوسون برای تماس در دسترس است و دکتر بایک نیست. اجازه دهید $X(t) = b$ اگر دکتر Baick برای گرفتن تماس در دسترس است اما دکتر داوسون نیست. سپس $\\{X(t), t\ge 0\\}$ یک زنجیره مارکوف با زمان پیوسته با فضای حالت $S=\\{0,2,d,b\\}$ است. اجازه دهید $q_{ij}$ نرخ انتقال از حالت $i$ به حالت $j$ را برای $i,j \در S$ نشان دهد. سپس می توان نشان داد که $Q$ (ماتریس همه $q_{ij}$ها) به وسیله:  که در آن سطرها به ترتیب برچسب گذاری شده اند: $0، 2، d، b$ و همان ستون ها. چیزی که من گیج شدم این است که $q_{20} = 0$ چگونه است؟ آیا امکان انتقال از حالتی وجود ندارد که هر دو پزشک برای پاسخگویی به تماسها در دسترس هستند و هیچ پزشک در دسترس نیست؟ | زمان پیوسته نرخ گذار زنجیره مارکوف |
63026 | من روی پروژهای کار میکنم که میخواهم اطلاعاتی در مورد محتوای یک سری مقالههای پایان باز استخراج کنم. در این پروژه خاص، 148 نفر به عنوان بخشی از یک آزمایش بزرگتر، مقالاتی درباره یک سازمان دانشجویی فرضی نوشتند. اگرچه در رشته من (روانشناسی اجتماعی)، روش معمولی برای تجزیه و تحلیل این داده ها، کدنویسی مقاله ها با دست است، اما من می خواهم این کار را به صورت کمی انجام دهم، زیرا کدگذاری دستی برای من هم کار فشرده و هم کمی ذهنی است. طعم در طول تحقیقاتم در مورد روشهای تجزیه و تحلیل کمی دادههای پاسخ رایگان، به طور تصادفی به رویکردی به نام مدلسازی موضوع (یا تخصیص دیریکله پنهان یا LDA) برخوردم. مدلسازی موضوع، نمایشی از دادههای شما (یک ماتریس سند اصطلاحی) را ارائه میکند و از اطلاعات مربوط به همروی کلمات برای استخراج موضوعات پنهان دادهها استفاده میکند. این رویکرد برای برنامه من عالی به نظر می رسد. متأسفانه، وقتی مدلسازی موضوع را برای دادههایم اعمال کردم، دو مسئله را کشف کردم: 1. موضوعاتی که توسط مدلسازی موضوعی کشف میشوند گاهی اوقات تفسیر آنها سخت است. به نظر می رسد موضوعات به طور چشمگیری تغییر می کنند. شماره 2 به طور خاص به من مربوط می شود. بنابراین، من دو سوال مرتبط دارم: 1. آیا کاری می توانم در روش LDA انجام دهم تا روش مناسب مدل خود را برای تفسیرپذیری و پایداری بهینه کنم؟ من شخصاً به یافتن مدلی با کمترین گیجی و/یا بهترین تناسب مدل اهمیتی نمی دهم -- عمدتاً می خواهم از این روش برای کمک به درک و توصیف آنچه شرکت کنندگان در این مطالعه در مقالات خود نوشته اند استفاده کنم. با این حال، من مطمئناً نمی خواهم نتایج من مصنوع از دانه تصادفی باشد! 2. در رابطه با سوال بالا، آیا استانداردهایی برای انجام LDA وجود دارد؟ اکثر مقالاتی که من دیدهام و از این روش استفاده کردهاند، مجموعههای بزرگ را تجزیه و تحلیل میکنند (مثلاً آرشیو تمام مقالات علمی ۲۰ سال گذشته)، اما از آنجایی که من از دادههای تجربی استفاده میکنم، مجموعه اسناد من بسیار کوچکتر است. من دادههای مقاله را برای هرکسی که میخواهد دستهایش را کثیف کند، اینجا پست کردهام و کد R را که از آن استفاده میکنم در زیر قرار دادهام. require(tm) require(topicmodels) # یک پیکره از مقاله c <- Corpus(DataframeSource(essays)) inspect(c) # علامت گذاری را حذف کنید و کلمات را با حروف کوچک c قرار دهید <- tm_map(c, removePunctuation) c < - tm_map (c، tolower) # یک DocumentTermMatrix ایجاد کنید. کلید واژه ها دسته های کلمه تابع LIWC هستند # من یک کپی از فرهنگ لغت LIWC دارم، اما اگر می خواهید تحلیل مشابهی انجام دهید، # از کلمات توقف پیش فرض در tm dtm <- DocumentTermMatrix(c, control = list(stopwords = c استفاده کنید (dict$funct، dict$pronoun، dict$ppron، dict$i، dict$we، dict$you، dict$shehe، dict$they، dict$inpers، dict$article، dict$aux))) # فرکانس اصطلاحی معکوس فرکانس سند برای انتخاب کلمات مورد نظر term_tfidf <- tapply(dtm$v/rowSums(as.matrix(dtm))[dtm $i]، dtm$j، میانگین) * log2(nDocs(dtm)/colSums(as.matrix(dtm))) خلاصه (term_tfidf) dtm <- dtm[، term_tfidf >= 0.04] lda <- LDA(dtm، k = 5، seed = 532 (lda) سرگشتگی ) (شرایط <- شرایط(lda, 10)) (موضوعات <- موضوعات(lda)) **ویرایش:** من سعی کردم nstart را همانطور که توسط Flounderer در نظرات پیشنهاد شده است، تغییر دهم. متأسفانه، همانطور که در زیر نشان داده شده است، حتی تنظیم «nstart» روی 1000 به موضوعاتی منجر میشود که از دانههای تصادفی به دانههای تصادفی کاملاً متفاوت هستند. فقط برای تاکید مجدد، تنها چیزی که من در تخمین دو مدل زیر تغییر میدهم، بذر تصادفی مورد استفاده برای شروع تخمین مدل است، و با این حال به نظر میرسد موضوعات در این دو اجرا اصلاً سازگار نیستند. lda <- LDA(dtm، k = 5، seed = 535، control = list(nstart = 1000)) (شرایط <- شرایط(lda، 10)) مبحث 1 مبحث 2 مبحث 3 مبحث 4 مبحث 5 [1،] بین المللی قومیت رایگان اعتبار مهربان [2،] ارتباط راست تیم اجباری پل [3،] به دست آوردن آسیایی ها همکاری موسیقی بستن [4،] استفاده دست سفارش دیده شده معامله [5، ] بزرگ نگهداری بازی موانع طراحی شده [6،] ارتباط موثر بزرگ کلیشه ها تلاش [7،] آمریکا تاکید شروع آسیایی اجرا [8،] چینی تالار چین فوق العاده وب سایت [9،] قومیت اقلیت تفاوت تمرکز برنامه ریزی [10،] شبکه جمعیت آسان تر نیرو بدن lda <- LDA(dtm, k = 5, seed = 536, control = list(nstart = 1000)) (شرایط <- Terms(lda, 10)) مبحث 1 مبحث 2 مبحث 3 مبحث 4 مبحث 5 [1,] نوع بین المللی مسئله میل بازی [2،] آسان تر قومیت نزدیک استفاده | ثبات موضوع در مدل های موضوعی |
100019 | با خواندن در مورد خوشهبندی جریان داده، با شرایط بعدی آشنا شدم: * مدل پنجره برجسته، * مدل پنجره کشویی، * پنجره میرا. در مورد پنجره کشویی واضح است - قدیمی ترین داده ها از محدوده خارج می شوند، داده های جدید داخل می شوند. اما مفاهیم دو مورد دیگر چیست؟ من می توانم فرض کنم که پنجره میرایی مانند یک بافر است که پس از پر شدن پاک می شود، اما توضیحی که من پیدا کرده بودم، بیان می کند که Dumped از وزن کم داده ها به عنوان تابعی از زمان استفاده می کند. | مدلهای پنجره در پردازش دادههای جریانی |
95795 | از آنچه در دوره داده کاوی مطالعه کرده ام (لطفاً اگر اشتباه می کنم اصلاح کنید) - در رگرسیون لجستیک، زمانی که متغیر پاسخ باینری است، از روی منحنی ROC می توانیم آستانه را تعیین کنیم. اکنون سعی می کنم رگرسیون لجستیک را برای یک متغیر پاسخ طبقه بندی ترتیبی با بیش از دو دسته (4) اعمال کنم. من از تابع 'polr' در r استفاده کردم: > polr1<-polr(Category~Division+ST.Density,data=Versions.data) > summary(polr1) re-fitting برای دریافت تماس Hessian: polr(formula = Category ~ Division + ST.Density، data = Versions.data) ضرایب: Value Std. مقدار خطای t DivisionAP -0.8237 0.5195 -1.586 DivisionAT -0.8989 0.5060 -1.776 DivisionBC -1.5395 0.5712 -2.695 DivisionCA -1.8102 0.5240 -3.405 -3.405 -8EM -1.211 DivisionNA -1.7568 0.4704 -3.734 ST.Density 0.3444 0.0750 4.592 Intercepts: Value Std. خطای t مقدار 1|2 -1.3581 0.4387 -3.0957 2|3 -0.5624 0.4328 -1.2994 3|4 1.2661 0.4390 2.8839 انحراف باقیمانده: 707.87274 AIC چگونه باید تفسیر شود؟ و چگونه می توانم آستانه را برای هر گروه تعیین کنم؟ با تشکر | نحوه تعیین آستانه در رگرسیون لجستیک مرتب شده |
21613 | تفاوت بین یک مدل GLM (رگرسیون لجستیک) با یک متغیر پاسخ باینری که شامل موضوع و زمان به عنوان متغیرهای کمکی است و مدل مشابه GEE که همبستگی بین اندازهگیریها را در چند نقطه زمانی در نظر میگیرد چیست؟ GLM من به نظر می رسد: Y (دودویی) ~ A + B1X1 (شناسه موضوع) + B2X2 (زمان) + B3X3 (متغیر کمکی پیوسته جالب) با تابع پیوند logit. من به دنبال یک توضیح ساده (با هدف دانشمند اجتماعی) هستم که چگونه و چرا در این دو مدل به طور متفاوت با زمان برخورد می شود و چه پیامدهایی برای تفسیر خواهد داشت. | تفاوت بین GLM و GEE چیست؟ |
49562 | من می خواهم بدانم چگونه نمودارهای چگالی شرطی را به درستی تفسیر کنم. من دو مورد را در زیر درج کردم که در R با 'cdplot' ایجاد کردم. به عنوان مثال، آیا احتمال _Result_ برابر با 1 وقتی _Var 1_ 150 است تقریبا 80% است؟  ناحیه خاکستری تیره همان چیزی است که احتمال شرطی «نتیجه» برابر با 1 است، درست است؟  از مستندات «cdplot»: > cdplot چگالی های شرطی x را با توجه به سطوح y محاسبه می کند > وزن شده با توزیع حاشیه ای y چگالی ها به صورت تجمعی بیش از سطوح y مشتق شده اند. این انباشت چگونه بر نحوه تفسیر این طرح ها تأثیر می گذارد؟ | تفسیر نمودارهای چگالی شرطی |
44798 | این اولین پست من در اینجا است، اما از نتایج این انجمن که در نتایج جستجوی گوگل ظاهر می شود، سود زیادی برده ام. من رگرسیون نیمه پارامتریک را با استفاده از اسپلاین های جریمه شده به خودم آموزش داده ام. اساساً، $$ \hat{y} = X(X'X + \lambda D)^{-1}X'y $$ که در آن X علاوه بر متغیرهای اصلی من پر از گره است، $\lambda$ یک جریمه است اصطلاحی که به گره ها اطلاق می شود. (اگر می خواهید این موارد را یاد بگیرید، به عنوان مثال Wood 2006 یا Ruppert, Wand & Carrol 2003 را ببینید). دادههای من دارای همبستگی خودکار خوشهای و احتمالاً ناهمگونی هستند. آموزش من در اقتصاد سنجی است، بنابراین طبیعتاً می خواهم ماتریس واریانس-کوواریانس را به صورت $$ X(X'X + \lambda D)^{-1}\left(\displaystyle\sum_j X'_j \epsilon_j \epsilon_j' نشان دهم. X\right)(X'X + \lambda D)^{-1}X' $$ موارد فوق استقلال بین خوشهها را فرض میکند، اما نه درون آنها، و همجنسگرایی را فرض نمی کند. این باید نظرات درستی به من بدهد. مشکل من این است که من فقط به se ها اهمیت نمی دهم. با نیمه پارامتریک، من به فواصل اطمینان در نمودارها نیاز دارم. **ویرایش** مدتی بعد: من یک روش شبه brute-force برای انجام این کار با هک کردن mgcv ایجاد کردم. رویکرد کلی این است که ماتریس کوواریانس پارامتر خودم را محاسبه کنم و آن را در mgcv قرار دهم. سپس توسط توابع دیگر برای محاسبه CI و دادن CI در نمودارها استفاده می شود. که کار می کند، بازخورد را دعوت می کند و شاید در نهایت برای دیگران مفید باشد. در اینجا به این صورت است: **ویرایش دیگری**: تابع اکنون سعی می کند ماتریس جریمه کامل را با معکوس کردن ماتریس کوواریانس پارامتر و کم کردن X'X$$ بدست آورد. **به طور عجیبی، ماتریس کوواریانس پارامتر ارائه شده توسط `mgcv` اغلب معکوس نیست. من نمیدانم چرا چنین میشود، ** پس از حذف ساختگیهای اضافی که بهطور خودکار حذف میشوند. **کسی ایده ای در اینجا دارد؟** من در حال حاضر از معکوس های تعمیم یافته به عنوان هک استفاده می کنم و مطمئن نیستم که دقیقاً چه نوع اعوجاجی به نتایج من اضافه می کند. clusterGAM = function(m,clustvar){ require(MASS) mm = predict(m,type='lpmatrix') #Get model X ماتریس mm = mm[,colnames(mm) %in% names(ضرایب(m))[ rowSums(m$Vp)!=0]] #ضرایب را از ماتریس مدل که به دلیل همخطی بودن گوشت به طور خودکار حذف می شوند حذف کنید = ماتریس(rep(0,ncol(mm)*ncol(mm)),ncol(mm)) #ماتریس گوشت را از قبل پر کنید برای (i در 1:length(unique(clustvar))){#این مجموع روی خوشه ها است X = mm[clustvar == منحصر به فرد(clustvar)[i]،] e = باقیمانده (m)[clustvar == منحصر به فرد(clustvar)[i]] گوشت = meat+t(X) %*% e %*% t(e) %*% X } M <- length(unique(clustvar)) N <- length(clustvar) K <- sum(m$edf) #use EDF به جای K dfc <- (M/(M-1))*((N-1)/(N-K))#درجات اصلاح آزادی Vp = vcov(m,dispersion=1) Vp = Vp[rowSums(m$Vp)!=0,rowSums(m$Vp)!=0] S = tryCatch(solve(Vp) - t(mm)%*%mm, error=function(e) e, final=NA) if(herits(S, error)) { S = ginv(Vp) - t(mm)%*%mm print(هشدار: معکوس تعمیم یافته استفاده می شود برای استخراج ماتریس جریمه) } vcv = tryCatch(dfc*solve(t(mm)%*%mm+S)%*%meat %*% solve(t(mm)%*%mm+S), error= تابع(e) e، در نهایت=NA) if(به ارث می برد(vcv، خطا)) { vcv = dfc*ginv(t(mm)%*%mm+S)%*%meat %*% ginv(t(mm)%*%mm+S) print(هشدار: معکوس تعمیم یافته برای محاسبه ماتریس Vp) } #دریافت vcv if (length(which(rowSums(m$Vp)==0)!=0)){ #اگر هر ردیف صفر شکست خورد بیرون، آنها را به صفر برگردانید = which(rowSums(m$Vp)==0) for (i in 1:length(صفر)){ vcv = rbind(vcv[0:(صفر[i]-1)،] ,0,vcv[(صفر[i]):nrow(vcv)،]) vcv = cbind(vcv[,0:(صفر[i]-1)],0,vcv[,(صفر[i]):ncol(vcv)]) } } m$Vp = vcv #vcv جدید را در محل قرار دهید جایی که نمودارها و خلاصه از m ساخته می شود } *ویرایش شده تا بتوان تانسورها را مدیریت کرد برخی از داده ها برای اجرای آن load(url('http://andrewcd.berkeley.edu/sdat')) head(sdat) N = nrow(sdat) #set.seed(417) sdat$x = with(sdat,log(y+1+ runif(N)*T)+rexp(N)) #ساخت یک نمودار کمکی هموار جعلی(sdat$x,sdat$y) m = گام (y~ID+G:t+T+s(x)-1، داده=sdat) مدل پانل #LSDV با زمان x گروه FE و یک تابع صاف par(mfrow=c(1،2)) نمودار(m ,ylim=c(-.75,2)) summary(m) m = clusterGAM(m,sdat$G) plot(m,ylim=c(-.75,2)) #اعتماد فاصله ها کمی کوچک می شود. به نظر می رسد این امر خلاف واقع است. summary(m) #SE در T کمی بزرگتر می شود، همانطور که اگر مشاهدات مکرر را در نظر بگیرید احتمالاً باید این کار را انجام دهید #حالا آن را با یک تانسور امتحان کنید sdat$z = با (sdat,y+x+rnorm(N)) m = gam(y~ID+G:t+T+te(x,z)-1,data=sdat) خلاصه (m) vis.gam(m,view=c('x','z'),se=2,theta=150,phi=20) m = clusterGAM(m,sdat$G) vis.gam(m,view=c ('x','z'),se=2,theta=150,phi=20) | فواصل اطمینان اسپلاین جریمه شده بر اساس VCV خوشه ای ساندویچ |
69179 | من با استفاده از شبکه های عصبی مشکل دارم. من با یک چیز ساده شروع کردم. من فقط از nntool با یک لایه پنهان (با یک نورون) با تابع فعال سازی خطی استفاده کردم. برای خروجی نیز از تابع فعال سازی خطی استفاده کردم. من فقط Xs و Ys خود را به ابزار شبکه عصبی تغذیه کردم و نتایج را در مجموعه آزمایش دریافت کردم. من آن را با تابع نرمال ریج در متلب مقایسه کردم. میتوانستم ببینم که شبکه عصبی یک بسیار بدتر از عملکرد ریج است. دلیل اول این است که مقادیر منفی زیادی در پیش بینی ها وجود دارد، در حالی که هدف من فقط مثبت است. رگرسیون ریج حدود 800 مقدار -ve داد در حالی که nn حدود 5000 -ve را ارائه داد که به طور کامل دقت nntool را از بین برد. از آنجایی که nntool می تواند برای انجام رگرسیون خطی استفاده شود، چرا nntool به خوبی رگرسیون ridge عمل نمی کند؟ در مورد ارزش های منفی، دلیل آن چیست و چگونه می توان ارزش های مثبت را اعمال کرد؟ | مشکلات استفاده از شبکه عصبی |
101351 | 1. من کنجکاو هستم که در مورد رابطه بین آنتروپی و محتوای اطلاعات یک سیگنال یا خط سیر سری های زمانی بدانم. هنگامی که یک سیستم در تعادل است، آنتروپی حداکثر است. آیا آنتروپی به معنای اندازه گیری از دست دادن اطلاعات است؟ آنتروپی بالاتر == از دست دادن اطلاعات؟ در درک من، آنتروپی تئوری اطلاعات شانون میزان نامطمئن بودن ما در مورد نماد ورودی بعدی را اندازه گیری می کند. از این رو، آنتروپی = اندازه گیری عدم قطعیت. آنتروپی زمانی به حداکثر می رسد که ما کاملاً از نتیجه رویدادها مطمئن نیستیم. بنابراین، آیا این به این معنی است که حداکثر آنتروپی = حداقل اطلاعات است؟ 1. اگر یک مسیر در فضای فاز و هر عنصر از مسیر را یک نماد در نظر بگیریم، آیا تکامل مسیر به معنای ایجاد اطلاعات است؟ چگونه آنتروپی را برای یک مسیر استنباط کنیم؟ پیشاپیش از راهنمایی و راهنمایی شما سپاسگزارم. | آنتروپی و محتوای اطلاعاتی |
21618 | در زمینه مجموعههای ژنومی در زیستشناسی (مشکل بازسازی ژنوم از قطعات تصادفی بسیار کوتاه آن است، که در آن ژنوم یک یا چند رشته بلند از یک الفبای محدود است)، معیاری به نام N50 برای یک مجموعه وجود دارد. رشته ها (تکه هایی از توالی DNA). طول N50 به عنوان طول رشته ای که 50٪ از همه کاراکترها در رشته هایی با آن طول یا بیشتر هستند تعریف می شود. برای مثال http://seqanswers.com/forums/showthread.php?t=2332 را ببینید. من گاهی اوقات این معیار را دیده ام که به آن میانگین وزنی طول گفته می شود. آیا این درست است؟ | میانگین وزنی طول |
45449 | من مجموعه بزرگی از پیش بینی کننده ها (بیش از 43000) برای پیش بینی یک متغیر وابسته دارم که می تواند 2 مقدار (0 یا 1) بگیرد. تعداد مشاهدات بیش از 45000 است. بیشتر پیشبینیکنندهها تکگرامها، بیگرامها و سهگرامهای کلمات هستند، بنابراین درجه بالایی از همخطی بودن بین آنها وجود دارد. در مجموعه داده من نیز پراکندگی زیادی وجود دارد. من از رگرسیون لجستیک بسته glmnet استفاده می کنم که برای نوع مجموعه داده ای که دارم کار می کند. مشکل من این است که چگونه می توانم اهمیت p-value پیش بینی کننده ها را گزارش کنم. من ضریب بتا را دریافت می کنم، اما آیا راهی وجود دارد که ادعا کنیم ضرایب بتا از نظر آماری معنی دار هستند؟ این کد من است: داده های library('glmnet') <- read.csv('datafile.csv', header=T) mat = as.matrix(data) X = mat[,1:ncol(mat)-1] y = mat[,ncol(mat)] fit <- cv.glmnet(X,y, family=binomial) سوال دیگر این است: من از آلفا=1 پیش فرض استفاده می کنم، جریمه lasso که باعث این مشکل اضافی می شود که اگر دو پیش بینی کننده هم خط باشند، کمند یکی از آنها را به طور تصادفی انتخاب می کند و وزن بتای صفر را به دیگری اختصاص می دهد. من همچنین با پنالتی ریج (آلفا = 0) امتحان کردم که به جای انتخاب یکی از آنها، ضرایب مشابهی را به متغیرهای بسیار همبسته اختصاص می دهد. با این حال، مدل با پنالتی لاسو انحراف بسیار کمتری نسبت به پنالتی ریج به من می دهد. آیا راه دیگری وجود دارد که بتوانم هر دو پیش بینی کننده را که بسیار هم خط هستند گزارش کنم؟ | هنگام استفاده از glmnet چگونه می توان اهمیت p-value را برای ادعای اهمیت پیش بینی کننده ها گزارش کرد؟ |
45446 | مدلهای افزودنی تعمیمیافته آنهایی هستند که برای مثال $$ y = \alpha + f_1(x_1) + f_2 (x_2) + e_i$$. توابع صاف هستند و باید تخمین زده شوند. معمولا توسط اسپلاین های جریمه شده. MGCV بسته ای در R است که این کار را انجام می دهد و نویسنده (سایمون وود) کتابی در مورد بسته خود با مثال های R می نویسد. روپرت و همکاران (2003) کتابی به مراتب در دسترس تری در مورد نسخه های ساده تری از همان چیز می نویسند. سوال من در مورد تعاملات درون این نوع مدل ها است. اگر بخواهم کاری شبیه به زیر انجام دهم: $$ y = \alpha + f_1 (x_1) + f_2 (x_2) + f_3 (x_1\times x_2) + e_i$$ اگر در زمین OLS بودیم (جایی که f است). فقط یک نسخه بتا)، من با تفسیر $\hat{f}_3$ مشکلی ندارم. اگر ما از طریق splines جریمه شده تخمین بزنیم، من نیز مشکلی با تفسیر در زمینه افزودنی ندارم. اما پکیج MGCV در GAM دارای این موارد است که به آن Tensor Product smooths می گویند. «محصول تنسور» را در گوگل جستجو میکنم و چشمانم بلافاصله در تلاش برای خواندن توضیحاتی که پیدا میکنم خیره میشود. یا من به اندازه کافی باهوش نیستم یا ریاضیات خیلی خوب توضیح داده نشده است یا هر دو. به جای کدگذاری نرمال = gam(y~s(x1)+s(x2)+s(x1*x2)) یک حاصلضرب تانسور همان کار (؟) را توسط what = gam(y~te(x1,x2) انجام می دهد. ) وقتی طرح (چه) یا vis.gam (چه) را انجام می دهم، خروجی بسیار جالبی دریافت می کنم. اما من هیچ ایده ای در داخل جعبه سیاه که te() است، ندارم، و نه اینکه چگونه خروجی جالب فوق الذکر را تفسیر کنم. همین دیشب کابوس دیدم که داشتم سمینار می دادم. من یک نمودار جالب به همه نشان دادم، آنها از من پرسیدند که چه معنایی دارد، و من نمی دانستم. بعد متوجه شدم که لباسی به تن ندارم. آیا کسی می تواند با دادن کمی مکانیک و شهود در مورد آنچه در زیر کاپوت اینجا می گذرد، هم به من و هم به آیندگان کمک کند؟ ایده آل است که کمی در مورد تفاوت بین حالت اندرکنش عادی و حالت تانسور بگوییم؟ امتیازات پاداش برای گفتن همه چیز به زبان انگلیسی ساده قبل از رفتن به ریاضی. | شهود پشت تعاملات محصول تانسور در GAM (بسته MGCV در R) |
45444 | من اطلاعاتی دارم که باید آنها را تجسم کنم و مطمئن نیستم که چگونه بهترین کار را انجام دهم. من مجموعه ای از آیتم های پایه $Q = \\{ q_1، \cdots، q_n \\}$ با فرکانس های مربوطه $F = \\{f_1، \cdots، f_n \\}$ و نتایج $O \in \\ دارم. {0,1\\}^n$. اکنون باید ترسیم کنم که روش من چقدر آیتمهای فرکانس پایین را «پیدا میکند» (یعنی یک پیامد). من در ابتدا فقط یک محور x فرکانس و یک محور y 0-1 با نمودارهای نقطه ای داشتم، اما وحشتناک به نظر می رسید (مخصوصاً هنگام مقایسه داده ها از دو روش). یعنی هر آیتم $q \در Q$ است یک نتیجه (0/1) دارد و بر اساس فراوانی آن مرتب می شود. > در اینجا یک مثال با نتایج یک روش است:  ایده بعدی من تقسیم داده ها به فواصل و محاسبه حساسیت محلی بود. در فواصل زمانی مختلف، اما مشکل این ایده این است که توزیع فرکانس لزوما یکنواخت نیست. بنابراین چگونه باید فواصل زمانی را به بهترین نحو انتخاب کنم؟ > آیا کسی راهی بهتر/مفیدتر برای تجسم این نوع داده ها > برای به تصویر کشیدن اثربخشی یافتن موارد نادر (به عنوان مثال، با فرکانس بسیار پایین) > می شناسد؟ ویرایش: برای دقیق تر بودن، من توانایی برخی روش ها را برای بازسازی توالی های بیولوژیکی یک جمعیت خاص نشان می دهم. برای اعتبارسنجی با استفاده از داده های شبیه سازی شده، باید توانایی بازسازی انواع را بدون توجه به فراوانی (فرکانس) نشان دهم. بنابراین در این مورد من موارد گم شده و یافت شده را به ترتیب مرتب شده بر اساس فراوانی آنها تجسم می کنم. این نمودار شامل انواع بازسازی شده که در $Q$ نیستند نمی شود. | چگونه نتایج باینری را در مقابل یک پیش بینی پیوسته تجسم می کنید؟ |
45440 | من تقریباً همان سؤالی را دارم که در این پست مطرح شده است: وضعیتی دارم که میخواهم 50 مشاهده روزانه از بازده سوآپ نرخ بهره را بر اساس چهار عامل عقب نشینی کنم. در واقع این مدل نلسون سیگل اسونسون است http://en.wikipedia.org/wiki/Fixed-income_attribution بخش مدلسازی منحنی بازده را ببینید در حال حاضر من یک فرآیند بهینهسازی دارم که مجموعه پارامترهای بهینه را برای فاکتورها و بتا پیدا میکند. (وزن) ضرایب. همانطور که مشاهده می شود اگر فاکتورهای tau1 و tau2 یکسان باشند، ماتریس مدل مفرد خواهد بود و یا اگر نزدیک باشند، شرطی نامطلوب خواهد بود. فرآیند بهینهسازی برای مجموعه دادههای آزمایشی که در آن پارامترهای مورد استفاده برای تولید منحنیهای زرد انتخاب میشوند تا اطمینان حاصل شود که شرایط نامناسبی وجود ندارد، به خوبی کار میکند. با این حال، زمانی که من آن را روی داده های واقعی اعمال می کنم، به نظر می رسد پارامترهای بهترین تناسب روز به روز زیاد می پرند، حتی زمانی که منحنی به سختی حرکت می کند. من فکر میکنم این ممکن است به این دلیل باشد که تناسب بهینه با دادههای واقعی بر اساس مجموعههای پارامتری است که ماتریسهای نامشخص تولید میکنند به این معنی که نگاشت وزنهای بتا نادرست است. من فقط میتوانم جریمهای را در فرآیند بهینهسازی بگنجانم که از در نظر گرفتن ماتریسهای شرطی بد جلوگیری میکند. با این حال، هیچ چیز در اصل (که بتوانم به آن فکر کنم) وجود ندارد که به این معنی باشد که نگاشت بهینه این 50 مشاهدات بر روی فاکتورها منجر به ماتریسی می شود که حداقل شرایط بدی ندارد. بنابراین من واقعاً به راهی برای رسیدگی به این موارد شرطی شده بد نیاز دارم و بتوانم نتایج حاصل از ماتریسهایی را که در آن شرایط غیرمشابه وجود دارد، مقایسه کنم. من این موضوع را دوباره بررسی کرده ام و روش های اصلی برای مقابله با چنین شرایطی استفاده از رگرسیون ریج، رگرسیون اجزای اصلی و حداقل مربعات جزئی است. با رگرسیون ریج به طور کلی به عنوان بهترین دیده می شود. (آیا موافقید). حتی در آن زمان نیز به نظر می رسد انواع مختلفی از رگرسیون ریج، رگرسیون خط الراس بی طرفانه، روش های مخلوط وجود دارد. به عنوان مثال http://www.utgjiu.ro/math/sma/v04/p08.pdf من نمیخواهم هیچ یک از 4 عامل را حذف کنم. من فقط می خواهم بهترین تناسب را با این عوامل داشته باشم. من فقط فکر کردم بهترین روش برای مشکل من چیست؟ در حالت ایده آل، من همچنین به خطاهای استاندارد برای ضرایب نیاز دارم. آیا کسی می تواند کدهای ایده آل را در MATLAB یا R توصیه کند که بتواند بهترین روش را پیاده سازی کند؟ آیا اعتبار سنجی متقاطع بهترین راه برای مقایسه مدل های رقیب است؟ اشکالی ندارد که مدل های بد شرطی شده و غیر مشروط را از این طریق مقایسه کنیم؟ | رگرسیون ریج |
63028 | من میدانم که SVMهای یککلاس (OSVM) با نبود دادههای منفی در ذهن پیشنهاد شدهاند و آنها به دنبال یافتن مرزهای تصمیمی هستند که یک مجموعه مثبت و برخی از نقاط لنگر منفی را از هم جدا میکنند. یک کار اخیر SVMهای نمونه (ESVM) را پیشنهاد میکند که یک «طبقهبندی کننده واحد در هر دسته» را آموزش میدهد که ادعا میشود با OSVMها متفاوت است، به این ترتیب که ESVMها «نیازی به نگاشت نمونهها در یک فضای ویژگی مشترک ندارند که میتوان بر روی آن یک هسته شباهت ایجاد کرد. محاسبه شده. من کاملاً نمی دانم که این به چه معناست و چگونه ESVM ها با OSVMS متفاوت هستند. و بنابراین چگونه آنها متفاوت هستند؟ و چگونه از این محاسبه هسته شباهت در ESVM جلوگیری می شود؟ | SVM یک کلاس در مقابل SVM نمونه |
10700 | آیا کسی از اجرای موجود رگرسیون لجستیک ترتیبی در اکسل اطلاعی دارد؟ | صفحه گسترده اکسل برای رگرسیون لجستیک ترتیبی |
10702 | من یک سوال در مورد تفسیر مقادیر p حاصل از آزمون دو نمونه کولموگروف اسمیرنوف دارم. اساس تحلیل من این است که سعی کنم گروه هایی را شناسایی کنم که تفاوت توزیع آنها را در مقایسه با کل نشان می دهند. من از دو نمونه تست کولوگروف اسمیرنوف در R برای این کار استفاده کردم. اندازه های نمونه: کامل = 2409 Group_1 = 25 Group_2 = 26 Group_3 = 33 Group_4 = 43 نمودار مجموعه داده:  Other حاوی یک مجموعه ای از گروه های حاوی کمتر از 20 نقطه داده. مقادیر p حاصل که وقتی هر گروه را با گروه کامل مقایسه می کنم به شرح زیر است: گروه 1: 2.6155e-002 گروه 2: 2.1126e-003 گروه 3: 7.2113e-002 گروه 4: 7.3466e -003 چگونه می توانم این نتایج را تفسیر کنم - به ویژه با توجه به تعداد کم نقاط داده در هر گروه به عنوان تفاوت در حجم نمونه برای کامل (N=2409) و گروه ها (N=25-43)؟ آیا انتخاب یک تست KS خوب است یا ممکن است تست دیگری در این مورد مناسب تر باشد؟ | دو نمونه آزمون کولموگروف اسمیرنوف و تفسیر p-value |
17256 | از 312 نفر پرسیدم که چند بار در یک ماه از سوپرمارکت محلی مورد علاقه خود بازدید کردند. نتایج به شرح زیر است: * 5٪ اصلاً بازدید نکردند * 7٪ یک بار در ماه بازدید کردند * 33٪ دو بار در ماه بازدید کردند * 22٪ سه بار بازدید کردند. یک ماه * 15٪ چهار بار در ماه بازدید می کنند * 18٪ پنج بار و بیشتر در ماه بازدید می کنند در صورت عدم وجود تعداد واقعی بازدید (من فقط درصد مراجعه کنندگان به شرح بالا را دارم)، چگونه آیا میانگین و انحراف معیار را برای اهداف گزارش محاسبه می کنید؟ | چگونه می توان میانگین و انحراف معیار یک متغیر شمارش را وقتی که داده های خام بر اساس دسته های فرکانس است محاسبه کرد؟ |
21619 | من سعی میکنم تست دقیق فیشر را در R انجام دهم. نسبت شانس را مانند این $$\frac{(\text{تعداد موفقیتها در مجموعه من}) \cdot (\text{تعداد شکستها در پسزمینه) محاسبه میکنم. set})}{\text{(تعداد موفقیتها در مجموعه پسزمینه)} \cdot (\text{تعداد شکستها در مجموعه من})}$$ در مخرج، من برای برخی موارد 0 دریافت می کنم، زیرا برای برخی موارد 0 شکست در مجموعه من وجود دارد. آیا کسی می تواند به من بگوید که چگونه p-value را از نسبت شانس محاسبه کنم؟ همچنین اگر بگوییم نسبت شانس باید بزرگتر یا کمتر از 1 باشد به چه معناست؟ اگر بخواهم نمایش بیش از حد را در مجموعه خود در برابر مجموعه پس زمینه آزمایش کنم، نسبت شانس چقدر باید باشد و چگونه می توانم آن را محاسبه کنم؟ | چگونه نسبت شانس و p-value را برای آزمون فیشر محاسبه کنیم؟ |
95790 | من در تلاش برای درک و پیاده سازی تست اندرسون-دارلینگ برای توزیع نرمال در C ++ هستم. من پیاده سازی Octave/Matlab تست اندرسون-دارلینگ را در اینجا پیدا کرده ام، اما مقادیر بحرانی با مقادیر فهرست شده در ویکی پدیا متفاوت است. نویسندگان کد منبع مذکور، قبل از آزمایش فرضیه، نوعی تعدیل را انجام داده بودند. می خواهم بدانم این تنظیم برای چه کاری خوب است، چرا ساخته شده است؟ | تست اندرسون-دارلینگ - تنظیم برای چه چیزی خوب است |
End of preview. Expand
in Data Studio
CQADupstackStatsRetrieval-Fa
Task category | t2t |
Domains | Web |
Reference | https://huggingface.co/datasets/MCINext/cqadupstack-stats-fa |
How to evaluate on this task
You can evaluate an embedding model on this dataset using the following code:
import mteb
task = mteb.get_tasks(["CQADupstackStatsRetrieval-Fa"])
evaluator = mteb.MTEB(task)
model = mteb.get_model(YOUR_MODEL)
evaluator.run(model)
To learn more about how to run models on mteb
task check out the GitHub repitory.
Citation
If you use this dataset, please cite the dataset as well as mteb, as this dataset likely includes additional processing as a part of the MMTEB Contribution.
@article{enevoldsen2025mmtebmassivemultilingualtext,
title={MMTEB: Massive Multilingual Text Embedding Benchmark},
author={Kenneth Enevoldsen and Isaac Chung and Imene Kerboua and Márton Kardos and Ashwin Mathur and David Stap and Jay Gala and Wissam Siblini and Dominik Krzemiński and Genta Indra Winata and Saba Sturua and Saiteja Utpala and Mathieu Ciancone and Marion Schaeffer and Gabriel Sequeira and Diganta Misra and Shreeya Dhakal and Jonathan Rystrøm and Roman Solomatin and Ömer Çağatan and Akash Kundu and Martin Bernstorff and Shitao Xiao and Akshita Sukhlecha and Bhavish Pahwa and Rafał Poświata and Kranthi Kiran GV and Shawon Ashraf and Daniel Auras and Björn Plüster and Jan Philipp Harries and Loïc Magne and Isabelle Mohr and Mariya Hendriksen and Dawei Zhu and Hippolyte Gisserot-Boukhlef and Tom Aarsen and Jan Kostkan and Konrad Wojtasik and Taemin Lee and Marek Šuppa and Crystina Zhang and Roberta Rocca and Mohammed Hamdy and Andrianos Michail and John Yang and Manuel Faysse and Aleksei Vatolin and Nandan Thakur and Manan Dey and Dipam Vasani and Pranjal Chitale and Simone Tedeschi and Nguyen Tai and Artem Snegirev and Michael Günther and Mengzhou Xia and Weijia Shi and Xing Han Lù and Jordan Clive and Gayatri Krishnakumar and Anna Maksimova and Silvan Wehrli and Maria Tikhonova and Henil Panchal and Aleksandr Abramov and Malte Ostendorff and Zheng Liu and Simon Clematide and Lester James Miranda and Alena Fenogenova and Guangyu Song and Ruqiya Bin Safi and Wen-Ding Li and Alessia Borghini and Federico Cassano and Hongjin Su and Jimmy Lin and Howard Yen and Lasse Hansen and Sara Hooker and Chenghao Xiao and Vaibhav Adlakha and Orion Weller and Siva Reddy and Niklas Muennighoff},
publisher = {arXiv},
journal={arXiv preprint arXiv:2502.13595},
year={2025},
url={https://arxiv.org/abs/2502.13595},
doi = {10.48550/arXiv.2502.13595},
}
@article{muennighoff2022mteb,
author = {Muennighoff, Niklas and Tazi, Nouamane and Magne, Lo{\"\i}c and Reimers, Nils},
title = {MTEB: Massive Text Embedding Benchmark},
publisher = {arXiv},
journal={arXiv preprint arXiv:2210.07316},
year = {2022}
url = {https://arxiv.org/abs/2210.07316},
doi = {10.48550/ARXIV.2210.07316},
}
Dataset Statistics
Dataset Statistics
The following code contains the descriptive statistics from the task. These can also be obtained using:
import mteb
task = mteb.get_task("CQADupstackStatsRetrieval-Fa")
desc_stats = task.metadata.descriptive_stats
{
"test": {
"num_samples": 42921,
"number_of_characters": 37808958,
"num_documents": 42269,
"min_document_length": 0,
"average_document_length": 893.7330904445338,
"max_document_length": 7532,
"unique_documents": 42269,
"num_queries": 652,
"min_query_length": 11,
"average_query_length": 48.70245398773006,
"max_query_length": 133,
"unique_queries": 652,
"none_queries": 0,
"num_relevant_docs": 913,
"min_relevant_docs_per_query": 1,
"average_relevant_docs_per_query": 1.4003067484662577,
"max_relevant_docs_per_query": 18,
"unique_relevant_docs": 913,
"num_instructions": null,
"min_instruction_length": null,
"average_instruction_length": null,
"max_instruction_length": null,
"unique_instructions": null,
"num_top_ranked": null,
"min_top_ranked_per_query": null,
"average_top_ranked_per_query": null,
"max_top_ranked_per_query": null
}
}
This dataset card was automatically generated using MTEB
- Downloads last month
- 29