数学代写|凸优化作业代写Convex Optimization代考|CPD131

Doug I. Jones

Doug I. Jones

Lorem ipsum dolor sit amet, cons the all tetur adiscing elit

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

couryes-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础

数学代写|凸优化作业代写Convex Optimization代考|Detection probability matrix

For the randomized detector defined by the matrix $T$, we define the detection probability matrix as $D=T P$. We have
$$
D_{i j}=(T P){i j}=\operatorname{prob}(\hat{\theta}=i \mid \theta=j) $$ so $D{i j}$ is the probability of guessing $\hat{\theta}=i$, when in fact $\theta=j$. The $m \times m$ detection probability matrix $D$ characterizes the performance of the randomized detector defined by $T$. The diagonal entry $D_{i i}$ is the probability of guessing $\hat{\theta}=i$ when $\theta=i$, i.e., the probability of correctly detecting that $\theta=i$. The off-diagonal entry $D_{i j}$ (with $i \neq j$ ) is the probability of mistaking $\theta=i$ for $\theta=j$, i.e., the probability that our guess is $\hat{\theta}=i$, when in fact $\theta=j$. If $D=I$, the detector is perfect: no matter what the parameter $\theta$ is, we correctly guess $\hat{\theta}=\theta$.

The diagonal entries of $D$, arranged in a vector, are called the detection probabilities, and denoted $P^{\mathrm{d}}$ :
$$
P_i^{\mathrm{d}}=D_{i i}=\operatorname{prob}(\hat{\theta}=i \mid \theta=i)
$$
The error probabilities are the complements, and are denoted $P^{\mathrm{e}}$ :
$$
P_i^e=1-D_{i i}=\operatorname{prob}(\hat{\theta} \neq i \mid \theta=i)
$$
Since the columns of the detection probability matrix $D$ add up to one, we can express the error probabilities as
$$
P_i^{\mathrm{e}}=\sum_{j \neq i} D_{j i}
$$

数学代写|凸优化作业代写Convex Optimization代考|Bias, mean-square error, and other quantities

In this section we assume that the ordering of the values of $\theta$ have some significance, i.e., that the value $\theta=i$ can be interpreted as a larger value of the parameter than $\theta=j$, when $i>j$. This might be the case, for example, when $\theta=i$ corresponds to the hypothesis that $i$ events have occurred. Here we may be interested in quantities such as
$$
\operatorname{prob}(\hat{\theta}>\theta \mid \theta=i)
$$
which is the probability that we overestimate $\theta$ when $\theta=i$. This is an affine function of $D$ :
$$
\operatorname{prob}(\hat{\theta}>\theta \mid \theta=i)=\sum_{j>i} D_{j i}
$$ so a maximum allowable value for this probability can be expressed as a linear inequality on $D$ (hence, $T$ ). As another example, the probability of misclassifying $\theta$ by more than one, when $\theta=i$,
$$
\operatorname{prob}(|\hat{\theta}-\theta|>1 \mid \theta=i)=\sum_{|j-i|>1} D_{j i}
$$
is also a linear function of $D$.
We now suppose that the parameters have values $\left{\theta_1, \ldots, \theta_m\right} \subseteq \mathbf{R}$. The estimation or detection (parameter) error is then given by $\hat{\theta}-\theta$, and a number of quantities of interest are given by linear functions of $D$. Examples include:

  • Bias. The bias of the detector, when $\theta=\theta_i$, is given by the linear function
    $$
    \underset{i}{\mathbf{E}}(\hat{\theta}-\theta)=\sum_{j=1}^m\left(\theta_j-\theta_i\right) D_{j i}
    $$
    where the subscript on $\mathbf{E}$ means the expectation is with respect to the distribution of the hypothesis $\theta=\theta_i$.
  • Mean square error. The mean square error of the detector, when $\theta=\theta_i$, is given by the linear function
  • Average absolute error. The average absolute error of the detector, when $\theta=\theta_i$, is given by the linear function
    $$
    \underset{i}{\mathbf{E}}|\hat{\theta}-\theta|=\sum_{j=1}^m\left|\theta_j-\theta_i\right| D_{j i}
    $$

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|Separating a point and a convex set

认为 是由等式和不等式 (8.1) 描述的闭凸集。如果 $x_0 \in C$ ,然后 $\operatorname{dist}\left(x_0, C\right)=0$ ,而问题 (8.2) 的最优点是 $x_0$. 如果 $x_0 \notin C$ 然后 $\operatorname{dist}\left(x_0, C\right)>0$ ,问题 (8.2) 的最优值为正。在这种情况下,我们将看到任何 对偶最优点都提供了点与点之间的分离超平面 $x_0$ 和集合.
在凸集上投影一个点和找到一个将它们分开的超平面 (当该点不在集合中时) 之间 的联系应该不足为奇。事实上,我们对分离超平面定理的证明,在IS 2.5 .1中给出 $\S 2.5 .1$, 依赖于找到集合之间的欧几里得距离。如果P_Cleft(x_olright) $P_C\left(x_0\right)$ 表示欧几里得投影 $x_0$ 在 ,在挪里 $x_0 \notin C ,$ 那么超平面
$$
\left(P C\left(x_0\right)-x_0\right)\left(x-(12)\left(x_0+P\left(x_0\right)\right)\right)=0
$$
(严格) 分开 $x_0$ 从C,如图 8.1 所示。然而,在其他规范中,投影问题和分离超 平面问题之间最明显的联系是通过拉格朗日对偶性。 我们先表达 (8.2)作为
$$
\text { minimize }|y| \text { subject to } \quad f(x) \leq 0, \quad i=1, \ldots, m \quad A x=b \quad x_0-x
$$
有变量 $x$ 和 $y$. 这个问题的拉格朗日量是
$$
L(x, y, \lambda, \mu, \nu)=|y|+\sum_{=1}^m \lambda f(x)+\nu(A x-b)+\mu^{\top}\left(x_0-x-y\right)
$$
双重功能是
$$
(\lambda, \mu, \nu)=\left{\text { in } x\left(\sum i=1^m \lambda f(x)+\nu(A x-b)+\mu^T\left(x_0-x\right)\right) \quad|\mu|* \leq\right] $$ 所以我们得到对偶问题 $$ \text { maximize } \left.\quad \mu^T x_0+\text { in } x \sum i=1^m \lambda f(x)+\nu(A x-b)-\mu^T x\right) \text { subject } $$ 有变量 $\lambda, \mu, \nu$. 我们可以如下解释对偶问题。认为 $\lambda, \mu, \nu$ 是双重可行的,具有积极 的双重目标价值,即 $\lambda \succeq 0,|\mu|* \leq 1$ ,和
$$
\mu^T x_0-\mu^T x+\sum_{=1}^m \lambda f(x)+\nu^{\top}(A x-b)>0
$$
对全部 $x$. 这意味着 $\mu \quad x_0>\mu \quad x$ 为了 $x \in C$ ,因此 $\mu$ 定义一个严格分离的超平 面。特别地,假设 (8.2) 是严格可行的,因此强对偶性成立。如果 $x_0 \notin C ,$ ,最优 值为正,任何对偶最优解都定义了一个严格分离的超平面。
请注意,这种通过对偶性构造的分离超平面适用于任何范数。相比之下,上述简单 构造仅适用于欧几里德范数。

数学代写|凸优化作业代写Convex Optimization代考|Projection and separation via indicator and support functions

上面描述的想法 $\S 8.1 .1$ 和 $\S 8.1 .2$ 可以用指示函数的紧凑形式表示 $I$ 和支持功能 $S$ 集合的C,定义为
$$
S(x)=\sup {y \in C} x^{\top} y, \quad I_C(x)= \begin{cases}0 & x \in C+\infty \quad x \notin C .\end{cases} $$ 投影的问题 $x_0$ 在闭凸集上 可以简洁地表示为 $$ \text { minimize }\left|x-x_0\right| \text { subject to } \quad I_C(x) \leq 0 $$ 或者,等价地,作为 $$ \text { minimize }|y| \text { subject to } \quad I_C(x) \leq 0 \quad x_0-x=y $$ 变量在哪里 $x$ 和 $y$. 这个问题的对偶函数是 所以我们得到对偶问题 $$ \text { maximize } \quad z^{\top} x_0-S(z) \text { subject to } \quad|z|* \leq 1
$$
如果 $z$ 是具有正目标值的对偶最优,则 $z x_0>z x$ 对全部 $x \in C$ ,那是, $z$ 定义 一个分离超平面。

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

Days
Hours
Minutes
Seconds

hurry up

15% OFF

On All Tickets

Don’t hesitate and buy tickets today – All tickets are at a special price until 15.08.2021. Hope to see you there :)