外文翻译----数字图像处理与边缘检测

外文翻译----数字图像处理与边缘检测
外文翻译----数字图像处理与边缘检测

附录1 译文

数字图像处理与边缘检测

数字图像处理

数字图像处理方法的研究源于两个主要应用领域:其一是为了便于人们分析而对图像信息进行改进:其二是为使机器自动理解而对图像数据进行存储、传输及显示。

一幅图像可定义为一个二维函数f(x,y),这里x和y是空间坐标,而在任何一对空间坐标(x,y)上的幅值f 称为该点图像的强度或灰度。当x,y和幅值f 为有限的、离散的数值时,称该图像为数字图像。数字图像处理是指借用数字计算机处理数字图像,值得提及的是数字图像是由有限的元素组成的,每一个元素都有一个特定的位置和幅值,这些元素称为图像元素、画面元素或像素。像素是广泛用于表示数字图像元素的词汇。

视觉是人类最高级的感知器官,所以,毫无疑问图像在人类感知中扮演着最重要的角色。然而,人类感知只限于电磁波谱的视觉波段,成像机器则可覆盖几乎全部电磁波谱,从伽马射线到无线电波。它们可以对非人类习惯的那些图像源进行加工,这些图像源包括超声波、电子显微镜及计算机产生的图像。因此,数字图像处理涉及各种各样的应用领域。

图像处理涉及的范畴或其他相关领域(例如,图像分析和计算机视觉)的界定在初创人之间并没有一致的看法。有时用处理的输入和输出内容都是图像这一特点来界定图像处理的范围。我们认为这一定义仅是人为界定和限制。例如,在这个定义下,甚至最普通的计算一幅图像灰度平均值的工作都不能算做是图像处理。另一方面,有些领域(如计算机视觉)研究的最高目标是用计算机去模拟人类视觉,包括理解和推理并根据视觉输入采取行动等。这一领域本身是人工智能的分支,其目的是模仿人类智能。人工智能领域处在其发展过程中的初期阶段,它的发展比预期的要慢的多,图像分析(也称为图像理解)领域则处在图像处理和计算机视觉两个学科之间。

从图像处理到计算机视觉这个连续的统一体内并没有明确的界线。然而,在这个连续的统一体中可以考虑三种典型的计算处理(即低级、中级和高级处理)来区分其中的各个学科。

低级处理涉及初级操作,如降低噪声的图像预处理,对比度增强和图像尖

锐化。低级处理是以输入、输出都是图像为特点的处理。中级处理涉及分割(把图像分为不同区域或目标物)以及缩减对目标物的描述,以使其更适合计算机处理及对不同目标的分类(识别)。中级图像处理是以输入为图像,但输出是从这些图像中提取的特征(如边缘、轮廓及不同物体的标识等)为特点的。最后,高级处理涉及在图像分析中被识别物体的总体理解,以及执行与视觉相关的识别函数(处在连续统一体边缘)等。

根据上述讨论,我们看到,图像处理和图像分析两个领域合乎逻辑的重叠区域是图像中特定区域或物体的识别这一领域。这样,在研究中,我们界定数字图像处理包括输入和输出均是图像的处理,同时也包括从图像中提取特征及识别特定物体的处理。举一个简单的文本自动分析方面的例子来具体说明这一概念。在自动分析文本时首先获取一幅包含文本的图像,对该图像进行预处理,提取(分割)字符,然后以适合计算机处理的形式描述这些字符,最后识别这些字符,而所有这些操作都在本文界定的数字图像处理的范围内。理解一页的内容可能要根据理解的复杂度从图像分析或计算机视觉领域考虑问题。这样,我们定义的数字图像处理的概念将在有特殊社会和经济价值的领域内通用。

数字图像处理的应用领域多种多样,所以文本在内容组织上尽量达到该技术应用领域的广度。阐述数字图像处理应用范围最简单的一种方法是根据信息源来分类(如可见光、X射线,等等)。在今天的应用中,最主要的图像源是电磁能谱,其他主要的能源包括声波、超声波和电子(以用于电子显微镜方法的电子束形式)。建模和可视化应用中的合成图像由计算机产生。

建立在电磁波谱辐射基础上的图像是最熟悉的,特别是X射线和可见光谱图像。电磁波可定义为以各种波长传播的正弦波,或者认为是一种粒子流,每个粒子包含一定(一束)能量,每束能量成为一个光子。如果光谱波段根据光谱能量进行分组,我们会得到下图1所示的伽马射线(最高能量)到无线电波(最低能量)的光谱。如图所示的加底纹的条带表达了这样一个事实,即电磁波谱的各波段间并没有明确的界线,而是由一个波段平滑地过渡到另一个波段。

图像获取是第一步处理。注意到获取与给出一幅数字形式的图像一样简单。通常,图像获取包括如设置比例尺等预处理。

图像增强是数字图像处理最简单和最有吸引力的领域。基本上,增强技术后面的思路是显现那些被模糊了的细节,或简单地突出一幅图像中感兴趣的特征。一个图像增强的例子是增强图像的对比度,使其看起来好一些。应记住,增强是图像处理中非常主观的领域,这一点很重要。

图像复原也是改进图像外貌的一个处理领域。然而,不像增强,图像增强是主观的,而图像复原是客观的。在某种意义上说,复原技术倾向于以图像退化的数学或概率模型为基础。另一方面,增强以怎样构成好的增强效果这种人的主观偏爱为基础。

彩色图像处理已经成为一个重要领域,因为基于互联网的图像处理应用在不断增长。就使得在彩色模型、数字域的彩色处理方面涵盖了大量基本概念。在后续发展,彩色还是图像中感兴趣特征被提取的基础。

小波是在各种分辨率下描述图像的基础。特别是在应用中,这些理论被用于图像数据压缩及金字塔描述方法。在这里,图像被成功地细分为较小的区域。

压缩,正如其名称所指的意思,所涉及的技术是减少图像的存储量,或者

在传输图像时降低频带。虽然存储技术在过去的十年内有了很大改进,但对传输能力我们还不能这样说,尤其在互联网上更是如此,互联网是以大量的图片内容为特征的。图像压缩技术对应的图像文件扩展名对大多数计算机用户是很熟悉的(也许没注意),如JPG文件扩展名用于JPEG(联合图片专家组)图像压缩标准。

形态学处理设计提取图像元素的工具,它在表现和描述形状方面非常有用。这一章的材料将从输出图像处理到输出图像特征处理的转换开始。

分割过程将一幅图像划分为组成部分或目标物。通常,自主分割是数字图像处理中最为困难的任务之一。复杂的分割过程导致成功解决要求物体被分别识别出来的成像问题需要大量处理工作。另一方面,不健壮且不稳定的分割算法几乎总是会导致最终失败。通常,分割越准确,识别越成功。

表示和描述几乎总是跟随在分割步骤的输后边,通常这一输出是未加工的数据,其构成不是区域的边缘(区分一个图像区域和另一个区域的像素集)就是其区域本身的所有点。无论哪种情况,把数据转换成适合计算机处理的形式都是必要的。首先,必须确定数据是应该被表现为边界还是整个区域。当注意的焦点是外部形状特性(如拐角和曲线)时,则边界表示是合适的。当注意的焦点是内部特性(如纹理或骨骼形状)时,则区域表示是合适的。则某些应用中,这些表示方法是互补的。选择一种表现方式仅是解决把原始数据转换为适合计算机后续处理的形式的一部分。为了描述数据以使感兴趣的特征更明显,还必须确定一种方法。描述也叫特征选择,涉及提取特征,该特征是某些感兴趣的定量信息或是区分一组目标与其他目标的基础。

识别是基于目标的描述给目标赋以符号的过程。如上文详细讨论的那样,我们用识别个别目标方法的开发推出数字图像处理的覆盖范围。

到目前为止,还没有谈到上面图2中关于先验知识及知识库与处理模块之间的交互这部分内容。关于问题域的知识以知识库的形式被编码装入一个图像处理系统。这一知识可能如图像细节区域那样简单,在这里,感兴趣的信息被定位,这样,限制性的搜索就被引导到寻找的信息处。知识库也可能相当复杂,如材料检测问题中所有主要缺陷的相关列表或者图像数据库(该库包含变化检测应用相关区域的高分辨率卫星图像)。除了引导每一个处理模块的操作,知识库还要控制模块间的交互。这一特性上面图2中的处理模块和知识库间用双箭头表示。相反单头箭头连接处理模块。

边缘检测

边缘检测是图像处理和计算机视觉中的术语,尤其在特征检测和特征抽

取领域,是一种用来识别数字图像亮度骤变点即不连续点的算法。尽管在任何关于分割的讨论中,点和线检测都是很重要的,但是边缘检测对于灰度级间断的检测是最为普遍的检测方法。

虽然某些文献提过理想的边缘检测步骤,但自然界图像的边缘并不总是理想的阶梯边缘。相反,它们通常受到一个或多个下面所列因素的影响:

1.有限场景深度带来的聚焦模糊;

2.非零半径光源产生的阴影带来的半影模糊;

3.光滑物体边缘的阴影;

4.物体边缘附近的局部镜面反射或者漫反射。

一个典型的边界可能是(例如)一块红色和一块黄色之间的边界;与之相反的是边线,可能是在另外一种不变的背景上的少数不同颜色的点。在边线的每一边都有一个边缘。

在对数字图像的处理中,边缘检测是一项非常重要的工作。如果将边缘认为是一定数量点亮度发生变化的地方,那么边缘检测大体上就是计算这个亮度变化的导数。为简化起见,我们可以先在一维空间分析边缘检测。在这个例子中,我们的数据是一行不同点亮度的数据。例如,在下面的1维数据中我们可以直观地说在第4与第5个点之间有一个边界:

如果光强度差别比第四个和第五个点之间小,或者说相邻的像素点之间光强度差更高,就不能简单地说相应区域存在边缘。而且,甚至可以认为这个例子中存在多个边缘。除非场景中的物体非常简单并且照明条件得到了很好的控制,否则确定一个用来判断两个相邻点之间有多大的亮度变化才算是有边界的阈值,并不是一件容易的事。实际上,这也是为什么边缘检测不是一个简单问题的原因之一。

有许多用于边缘检测的方法,它们大致可分为两类:基于搜索和基于零交叉.基于搜索的边缘检测方法首先计算边缘强度,通常用一阶导数表示,例如梯度模;然后,用计算估计边缘的局部方向,通常采用梯度的方向,并利用此方向找到局部梯度模的最大值。基于零交叉的方法找到由图像得到的二阶导数的零交叉点来定位边缘。通常用拉普拉斯算子或非线性微分方程的零交叉点,我们将在后面的小节中描述.滤波做为边缘检测的预处理通常是必要的,通常采用高斯滤波。

已发表的边缘检测方法应用计算边界强度的度量,这与平滑滤波有本质的不同. 正如许多边缘检测方法依赖于图像梯度的计算,他们用不同种类的

滤波器来估计x-方向和y-方向的梯度.

一旦我们计算出导数之后,下一步要做的就是给出一个阈值来确定哪里是边缘位置。阈值越低,能够检测出的边线越多,结果也就越容易受到图片噪声的影响,并且越容易从图像中挑出不相关的特性。与此相反,一个高的阈值将会遗失细的或者短的线段。

如果边缘阈值应用于正确的的梯度幅度图像,生成的边缘一般会较厚,某些形式的边缘变薄处理是必要的。然而非最大抑制的边缘检测,边缘曲线的定义十分模糊,边缘像素可能成为边缘多边形通过一个边缘连接(边缘跟踪)的过程。在一个离散矩阵中,非最大抑制阶梯能够通过一种方法来实现,首先预测一阶导数方向、然后把它近似到45度的倍数、最后在预测的梯度方向比较梯度幅度。

一个常用的这种方法是带有滞后作用的阈值选择。这个方法使用不同的阈值去寻找边缘。首先使用一个阈值上限去寻找边线开始的地方。一旦找到了一个开始点,我们在图像上逐点跟踪边缘路径,当大于门槛下限时一直纪录边缘位置,直到数值小于下限之后才停止纪录。这种方法假设边缘是连续的界线,并且我们能够跟踪前面所看到的边缘的模糊部分,而不会将图像中的噪声点标记为边缘。但是,我们仍然存在选择适当的阈值参数的问题,而且不同图像的阈值差别也很大。其它一些边缘检测操作是基于亮度的二阶导数。这实质上是亮度梯度的变化率。在理想的连续变化情况下,在二阶导数中检测过零点将得到梯度中的局部最大值。另一方面,二阶导数中的峰值检测是边线检测,只要图像操作使用一个合适的尺度表示。如上所述,边线是双重边缘,这样我们就可以在边线的一边看到一个亮度梯度,而在另一边看到相反的梯度。这样如果图像中有边线出现的话我们就能在亮度梯度上看到非常大的变化。为了找到这些边线,我们可以在图像亮度梯度的二阶导数中寻找过零点。

总之,为了对有意义的边缘点进行分类,与这个点相联系的灰度级变换必须比在这一点的背景上变换更为有效。由于我们用局部计算进行处理,决定一个值是否有效的选择方法就是使用门限。因此,如果一个点的二维一阶导数比指定的门限大,我们就定义图像中的此点是一个边缘点。术语“边缘线段”一般在边缘与图像的尺寸比起来很短时才使用。分割的关键问题是如何将边缘线段组合成更长的边缘。如果我们选择使用二阶导数,则另一个可用的定义是将图像中的边缘点定义为它的二阶导数的零交叉点。此时,边缘的定义同上面讲过的定义是一样的。应注意,这些定义并不能保证在一幅图像中

成功地找到边缘,它们只是给了我们一个寻找边缘的形式体系。图像中的一阶导数用梯度计算,二阶导数使用拉普拉斯算子得到。

附录2英文参考资料

Digital Image Processing and Edge Detection

Digital Image Processing

Interest in digital image processing methods stems from two principal applica- tion areas: improvement of pictorial information for human interpretation; and processing of image data for storage, transmission, and representation for au- tonomous machine perception.

An image may be defined as a two-dimensional function, f(x, y), where x and y are spatial (plane) coordinates, and the amplitude of f at any pair of coordinates (x, y) is called the intensity or gray level of the image at that point. When x, y, and the amplitude values of f are all finite, discrete quantities, we call the image a digital image. The field of digital image processing refers to processing digital images by means of a digital computer. Note that a digital image is composed of a finite number of elements, each of which has a particular location and value. These elements are referred to as picture elements, image elements, pels, and pixels. Pixel is the term most widely used to denote the elements of a digital image.

Vision is the most advanced of our senses, so it is not surprising that images play the single most important role in human perception. However, unlike humans, who are limited to the visual band of the electromagnetic (EM) spec- trum, imaging machines cover almost the entire EM spectrum, ranging from gamma to radio waves. They can operate on images generated by sources that humans are not accustomed to associating with images. These include ultra- sound, electron microscopy, and computer-generated images. Thus, digital image processing encompasses a wide and varied field of applications.

There is no general agreement among authors regarding where image processing stops and other related areas, such as image analysis and

computer vi- sion, start. Sometimes a distinction is made by defining image processing as a discipline in which both the input and output of a process are images. We believe this to be a limiting and somewhat artificial boundary. For example, under this definition, even the trivial task of computing the average intensity of an image (which yields a single number) would not be considered an image processing operation. On the other hand, there are fields such as computer vision whose ultimate goal is to use computers to emulate human vision, including learning and being able to make inferences and take actions based on visual inputs. This area itself is a branch of artificial intelligence (AI) whose objective is to emulate human intelligence. The field of AI is in its earliest stages of infancy in terms of development, with progress having been much slower than originally anticipated. The area of image analysis (also called image understanding) is in be- tween image processing and computer vision.

There are no clearcut boundaries in the continuum from image processing at one end to computer vision at the other. However, one useful paradigm is to consider three types of computerized processes in this continuum: low-, mid-, and highlevel processes. Low-level processes involve primitive opera- tions such as image preprocessing to reduce noise, contrast enhancement, and image sharpening. A low-level process is characterized by the fact that both its inputs and outputs are images. Mid-level processing on images involves tasks such as segmentation (partitioning an image into regions or objects), description of those objects to reduce them to a form suitable for computer processing, and classification (recognition) of individual objects. A midlevel process is characterized by the fact that its inputs generally are images, but its outputs are attributes extracted from those images (e.g., edges, contours, and the identity of individua l objects). Finally, higherlevel processing involves “making sense” of an ensemble of recognized objects, as in image analysis, and, at the far end of the continuum, performing the cognitive functions normally associated with vision.

Based on the preceding comments, we see that a logical place of overlap between image processing and image analysis is the area of recognition of individual regions or objects in an image. Thus, what we call in this book

digital image processing encompasses processes whose inputs and outputs are images and, in addition, encompasses processes that extract attributes from images, up to and including the recognition of individual objects. As a simple illustration to clarify these concepts, consider the area of automated analysis of text. The processes of acquiring an image of the area containing the text, preprocessing that image, extracting (segmenting) the individual characters, describing the characters in a form suitable for computer processing, and recognizing those individual characters are in the scope of what we call digital image processing in this book. Making sense of the content of the page may be viewed as being in the domain of image analysis and even computer vision, depending on the level of complexity implied by the statement “making sense.” As will become evident shortly, digital image processing, as we have defined it, is used successfully in a broad range of areas of exceptional social and economic value.

The areas of application of digital image processing are so varied that some form of organization is desirable in attempting to capture the breadth of this field. One of the simplest ways to develop a basic understanding of the extent of image processing applications is to categorize images according to their source (e.g., visual, X-ray, and so on). The principal energy source for images in use today is the electromagnetic energy spectrum. Other important sources of energy include acoustic, ultrasonic, and electronic (in the form of electron beams used in electron microscopy). Synthetic images, used for modeling and visualization, are generated by computer. In this section we discuss briefly how images are generated in these various categories and the areas in which they are applied.

Images based on radiation from the EM spectrum are the most familiar, es- pecially images in the X-ray and visual bands of the spectrum. Electromagnet- ic waves can be conceptualized as propagating sinusoidal waves of varying wavelengths, or they can be thought of as a stream of massless particles, each traveling in a wavelike pattern and moving at the speed of light. Each massless particle contains a certain amount (or bundle) of energy. Each bundle of energy is called a photon. If spectral bands are grouped according to energy per photon, we obtain the spectrum shown in fig. below, ranging from gamma rays (highest energy) at one end to radio

waves (lowest energy) at the other. The bands are shown shaded to convey the fact that bands of the EM spectrum are not distinct but rather transition smoothly from one to the other.

Image acquisition is the first process. Note that acquisition could be as simple as being given an image that is already in digital form. Generally, the image acquisition stage involves preprocessing, such as scaling.

Image enhancement is among the simplest and most appealing areas of digital image processing. Basically, the idea behind enhancement techniques is to bring out detail that is obscured, or simply to highlight certain features of interest in an image. A familiar example of enhancement is when we increase the contrast of an image because “it looks better.” It is important to keep in mind that enhancement is a very subjective area of image processing. Image restoration is an area that also deals with improving the appearance of an image. However, unlike enhancement, which is subjective, image restoration is objective, in the sense that restoration techniques tend to be based on mathematical or probabilistic models of image degradation. Enhancement, on the other hand, is based on human subjective preferences regarding what constitutes a “good” enhancement result.

Color image processing is an area that has been gaining in importance because of the significant increase in the use of digital images over the Internet. It covers a number of fundamental concepts in color models and basic color processing in a digital domain. Color is used also in later chapters as the basis for extracting features of interest in an image.

Wavelets are the foundation for representing images in various degrees of resolution. In particular, this material is used in this book for image data compression and for pyramidal representation, in which images are subdivided successively into smaller regions.

Compression,as the name implies, deals with techniques for reducing the storage required to save an image, or the bandwidth required to transmi it.Although storage technology has improved significantly over the past decade, the same cannot be said for transmission capacity. This is true particularly in uses of the Internet, which are characterized by significant pictorial content. Image compression is familiar (perhaps inadvertently) to most users of computers in the form of image file extensions, such as the jpg file extension used in the JPEG (Joint Photographic Experts Group) image compression standard.

Morphological processing deals with tools for extracting image components that are useful in the representation and description of shape. The material in this chapter begins a transition from processes that output images to processes that output image attributes.

Segmentation procedures partition an image into its constituent parts or objects. In general, autonomous segmentation is one of the most difficult tasks in digital image processing. A rugged segmentation procedure brings the process a long way toward successful solution of imaging problems that require objects to be identified individually. On the other hand, weak or erratic segmentation algorithms almost always guarantee eventual failure. In general, the more accurate the segmentation, the more likely recognition is to succeed.

Representation and description almost always follow the output of a segmentation stage, which usually is raw pixel data, constituting either the bound- ary of a region (i.e., the set of pixels separating one image region from another) or all the points in the region itself. In either case, converting the data to a form suitable for computer processing is necessary. The first decision that must be made is whether the data should be represented as a boundary or as a complete region. Boundary representation is appropriate when the focus is on external shape characteristics, such as corners and inflections. Regional representation is appropriate when the focus is on internal properties, such as texture or skeletal shape. In some applications, these representations complement each other. Choosing a representation is only part of the solution for trans- forming raw data into a form suitable for subsequent computer processing. A method must also be specified for describing the data so that features of interest are highlighted. Description, also called feature selection, deals with extracting attributes that result in some quantitative information of interest or are basic for differentiating one class of objects from another.

Recognition is the process that assigns a label (e.g., “vehicle”) to an object based on its descriptors. As detailed before, we conclude our coverage of digital image processing with the development of methods for recognition of individual objects.

So far we have said nothing about the need for prior knowledge or about the interaction between the knowledge base and the processing modules in Fig2 above. Knowledge about a problem domain is coded into an image processing system in the form of a knowledge database. This knowledge may be as sim- ple as detailing regions of an image where the information of interest is known to be located, thus limiting the search that has to be conducted in seeking that information. The knowledge base also can be quite complex, such as an interrelated list of all major possible defects in a materials inspection problem or an image database containing high-resolution satellite images of a region in con- nection with change-detection applications. In addition to guiding the operation of each processing module, the knowledge base also controls the interaction between modules. This distinction is made in Fig2 above by the use of

double-headed arrows between the processing modules and the knowledge base, as op- posed to single-headed arrows linking the processing modules. Edge detection

Edge detection is a terminology in image processing and computer vision, particularly in the areas of feature detection and feature extraction, to refer to algorithms which aim at identifying points in a digital image at which the image brightness changes sharply or more formally has discontinuities.Although point and line detection certainly are important in any discussion on segmentation,edge dectection is by far the most common approach for detecting meaningful discounties in gray level.

Although certain literature has considered the detection of ideal step edges, the edges obtained from natural images are usually not at all ideal step edges. Instead they are normally affected by one or several of the following

effects:1.focal blur caused by a finite depth-of-field and finite point spread function; 2.penumbral blur caused by shadows created by light sources of non-zero radius; 3.shading at a smooth object edge; 4.local specularities or interreflections in the vicinity of object edges.

A typical edge might for instance be the border between a block of red color and a block of yellow. In contrast a line (as can be extracted by a ridge detector) can be a small number of pixels of a different color on an otherwise unchanging background. For a line, there may therefore usually be one edge on each side of the line.

To illustrate why edge detection is not a trivial task, let us consider the problem of detecting edges in the following one-dimensional signal. Here, we may intuitively say that there should be an edge between the 4th and 5th pixels.

If the intensity difference were smaller between the 4th and the 5th pixels and if the intensity differences between the adjacent neighbouring pixels were higher, it would not be as easy to say that there should be an edge in the corresponding region. Moreover, one could argue that this case is one in which there are several edges.Hence, to firmly state a specific threshold on how large the intensity change between two neighbouring pixels must be for us to say that there should be an edge between these pixels is not always a simple problem. Indeed, this is one of the

reasons why edge detection may be a non-trivial problem unless the objects in the scene are particularly simple and the illumination conditions can be well controlled.

There are many methods for edge detection, but most of them can be grouped into two categories,search-based and zero-crossing based. The search-based methods detect edges by first computing a measure of edge strength, usually a first-order derivative expression such as the gradient magnitude, and then searching for local directional maxima of the gradient magnitude using a computed estimate of the local orientation of the edge, usually the gradient direction. The zero-crossing based methods search for zero crossings in a second-order derivative expression computed from the image in order to find edges, usually the zero-crossings of the Laplacian or the zero-crossings of a non-linear differential expression, as will be described in the section on differential edge detection following below. As a

pre-processing step to edge detection, a smoothing stage, typically Gaussian smoothing, is almost always applied (see also noise reduction).

The edge detection methods that have been published mainly differ in the types of smoothing filters that are applied and the way the measures of edge strength are computed. As many edge detection methods rely on the computation

of image gradients, they also differ in the types of filters used for computing gradient estimates in the x- and y-directions.

Once we have computed a measure of edge strength (typically the gradient magnitude), the next stage is to apply a threshold, to decide whether edges are present or not at an image point. The lower the threshold, the more edges will be detected, and the result will be increasingly susceptible to noise, and also to picking out irrelevant features from the image. Conversely a high threshold may miss subtle edges, or result in fragmented edges.

If the edge thresholding is applied to just the gradient magnitude image, the resulting edges will in general be thick and some type of edge thinning

post-processing is necessary. For edges detected with non-maximum suppression however, the edge curves are thin by definition and the edge pixels can be linked into edge polygon by an edge linking (edge tracking) procedure. On a discrete grid, the non-maximum suppression stage can be implemented by estimating the gradient direction using first-order derivatives, then rounding off the gradient direction to multiples of 45 degrees, and finally comparing the values of the

gradient magnitude in the estimated gradient direction.

A commonly used approach to handle the problem of appropriate thresholds for thresholding is by using thresholding with hysteresis. This method uses multiple thresholds to find edges. We begin by using the upper threshold to find the start of an edge. Once we have a start point, we then trace the path of the edge through the image pixel by pixel, marking an edge whenever we are above the lower threshold. We stop marking our edge only when the value falls below our lower threshold. This approach makes the assumption that edges are likely to be in continuous curves, and allows us to follow a faint section of an edge we have previously seen, without meaning that every noisy pixel in the image is marked down as an edge. Still, however, we have the problem of choosing appropriate thresholding parameters, and suitable thresholding values may vary over the image.

Some edge-detection operators are instead based upon second-order derivatives of the intensity. This essentially captures the rate of change in the intensity gradient. Thus, in the ideal continuous case, detection of zero-crossings in the second derivative captures local maxima in the gradient.

We can come to a conclusion that,to be classified as a meaningful edge point,the transition in gray level associated with that point has to be significantly stronger than the background at that point.Since we are dealing with local computations,the method of choice to determine whether a value is “significant” or not id to use a threshold.Thus we define a point in an image as being as being an edge point if its two-dimensional first-order derivative is greater than a specified criterion of connectedness is by definition an edge.The term edge segment generally is used if the edge is short in relation to the dimensions of the image.A key problem in segmentation is to assemble edge segments into longer edges.An alternate definition if we elect to use the second-derivative is simply to define the edge ponits in an image as the zero crossings of its second derivative.The definition of an edge in this case is the same as above.It is important to note that these definitions do not guarantee success in finding edge in an image.They simply give us a formalism to look for them.First-order derivatives in an image are computed using the gradient.Second-order derivatives are obtained using the Laplacian.

图像的阈值分割及边缘检测技术

数字图像处理实验报告 题目:图像的阈值分割及边缘检测技术 班级: 姓名: 学号:

图像的阈值分割及边缘检测技术 一、实验目的 1、了解图像的分割技术,掌握图像的全局阈值分割技术并通过MATLAB实现; 2、了解图像的边缘检测,掌握梯度算子图像边缘检测方法。 二、实验内容 1、基于直方图的全局阈值图像分割方法; 2、Edge命令(roberts,perwitt,sobel,log,canny),实现边缘检测。 三、实验原理 1、全局阈值是最简单的图像分割方法。其中,直方图法的原理如下:想做出图 像的直方图,若其直方图呈双峰且有明显的谷底,则可以讲谷底点所对应的灰度值作为阈值T,然后根据该阈值进行分割,九可以讲目标从图像中分割出来。这种方法是用于目标和背景的灰度差较大且直方图有明显谷底的情况。 2、用于边缘检测的梯度算子主要有Roberts算子、Prewitt算子、Sobel算子。 这三种检测算子中,Roberts算子定位精度较高,但也易丢失部分边缘,抗噪声能力差,适用于低噪声、陡峭边缘的场合。Prewitt算子、Sobel算子首先对图像做平滑处理,因此具有一定的抑制噪声的能力,但不能排除检测结果中的虚假边缘,易出现多像素宽度。

四、实验步骤 1、全局阈值分割: ①读取一张图像; ②生成该图像的直方图; ③根据直方图双峰产生的低谷估计阈值T; ④依次读取图像各个点的像素,若大于阈值,则将像素改为255,若小于 阈值,则将该像素改为0; 实验代码如下: I=imread('cameraman.tif'); %读取一张图像 subplot(221);imshow(I); %显示该图像 subplot(222);imhist(I); %生成该图像的直方图 T=60; %根据直方图估计阈值T为60 [m,n]=size(I); %取图像的大小为【m,n】 for i=1:m %依次读取图像各个点的像素,若大于阈 值,则将像素改为255,若小于阈值, 则将该像素改为0 for j=1:n if I(i,j)>=T I(i,j)=255; else I(i,j)=0; end end

外文翻译---基于模糊逻辑技术图像上边缘检测

译文二: 1基于模糊逻辑技术图像上边缘检测[2] 摘要:模糊技术是经营者为了模拟在数学水平的代偿行为过程的决策或主观评价而引入的。下面介绍经营商已经完成了的计算机视觉应用。本文提出了一种基于模糊逻辑推理战略为基础的新方法,它被建议使用在没有确定阈值的数字图像边缘检测上。这种方法首先将用3?3的浮点二进制矩阵将图像分割成几个区域。边缘像素被映射到一个属性值与彼此不同的范围。该方法的鲁棒性所得到的不同拍摄图像将与线性Sobel运算所得到的图像相比较。并且该方法给出了直线的线条平滑度、平直度和弧形线条的良好弧度这些永久的效果。同时角位可以更清晰并且可以更容易的定义。关键词:模糊逻辑,边缘检测,图像处理,电脑视觉,机械的部位,测量 1.引言 在过去的几十年里,对计算机视觉系统的兴趣,研究和发展已经增长了不少。如今,它们出现在各个生活领域,从停车场,街道和商场各角落的监测系统到主要食品生产的分类和质量控制系统。因此,引进自动化的视觉检测和测量系统是有必要的,特别是二维机械对象[1,8]。部分原因是由于那些每天产生的数字图像大幅度的增加(比如,从X光片到卫星影像),并且对于这样图片的自动处理有增加的需求[9,10,11]。因此,现在的许多应用例如对医学图像进行计算机辅助诊断,将遥感图像分割和分类成土地类别(比如,对麦田,非法大麻种植园的鉴定,以及对作物生长的估计判断),光学字符识别,闭环控制,基于目录检索的多媒体应用,电影产业上的图像处理,汽车车牌的详细记录的鉴定,以及许多工业检测任务(比如,纺织品,钢材,平板玻璃等的缺陷检测)。历史上的许多数据已经被生成图像,以帮助人们分析(相比较于数字表之类的,图像显然容易理解多了)[12]。所以这鼓励了数字分析技术在数据处理方面的使用。此外,由于人类善于理解图像,基于图像的分析法在算法发展上提供了一些帮助(比如,它鼓励几何分析),并且也有助于非正式确认的结果。虽然计算机视觉可以被总结为一个自动(或半自动)分析图像的系统,一些变化也是可能的[9,13]。这些图像可以来自超出正常灰度和色彩的照片,例如红外光,X射线,以及新一代的高光谱 [1]Abdallah A. Alshennawy, A yman A. Aly. Edge Detection in Digital Images Using Fuzzy Logic Technique[]J. World Academy of Science, Engineering and Technology, 2009, 51:178-186.

毕业设计外文翻译资料

外文出处: 《Exploiting Software How to Break Code》By Greg Hoglund, Gary McGraw Publisher : Addison Wesley Pub Date : February 17, 2004 ISBN : 0-201-78695-8 译文标题: JDBC接口技术 译文: JDBC是一种可用于执行SQL语句的JavaAPI(ApplicationProgrammingInterface应用程序设计接口)。它由一些Java语言编写的类和界面组成。JDBC为数据库应用开发人员、数据库前台工具开发人员提供了一种标准的应用程序设计接口,使开发人员可以用纯Java语言编写完整的数据库应用程序。 一、ODBC到JDBC的发展历程 说到JDBC,很容易让人联想到另一个十分熟悉的字眼“ODBC”。它们之间有没有联系呢?如果有,那么它们之间又是怎样的关系呢? ODBC是OpenDatabaseConnectivity的英文简写。它是一种用来在相关或不相关的数据库管理系统(DBMS)中存取数据的,用C语言实现的,标准应用程序数据接口。通过ODBCAPI,应用程序可以存取保存在多种不同数据库管理系统(DBMS)中的数据,而不论每个DBMS使用了何种数据存储格式和编程接口。 1.ODBC的结构模型 ODBC的结构包括四个主要部分:应用程序接口、驱动器管理器、数据库驱动器和数据源。应用程序接口:屏蔽不同的ODBC数据库驱动器之间函数调用的差别,为用户提供统一的SQL编程接口。 驱动器管理器:为应用程序装载数据库驱动器。 数据库驱动器:实现ODBC的函数调用,提供对特定数据源的SQL请求。如果需要,数据库驱动器将修改应用程序的请求,使得请求符合相关的DBMS所支持的文法。 数据源:由用户想要存取的数据以及与它相关的操作系统、DBMS和用于访问DBMS的网络平台组成。 虽然ODBC驱动器管理器的主要目的是加载数据库驱动器,以便ODBC函数调用,但是数据库驱动器本身也执行ODBC函数调用,并与数据库相互配合。因此当应用系统发出调用与数据源进行连接时,数据库驱动器能管理通信协议。当建立起与数据源的连接时,数据库驱动器便能处理应用系统向DBMS发出的请求,对分析或发自数据源的设计进行必要的翻译,并将结果返回给应用系统。 2.JDBC的诞生 自从Java语言于1995年5月正式公布以来,Java风靡全球。出现大量的用java语言编写的程序,其中也包括数据库应用程序。由于没有一个Java语言的API,编程人员不得不在Java程序中加入C语言的ODBC函数调用。这就使很多Java的优秀特性无法充分发挥,比如平台无关性、面向对象特性等。随着越来越多的编程人员对Java语言的日益喜爱,越来越多的公司在Java程序开发上投入的精力日益增加,对java语言接口的访问数据库的API 的要求越来越强烈。也由于ODBC的有其不足之处,比如它并不容易使用,没有面向对象的特性等等,SUN公司决定开发一Java语言为接口的数据库应用程序开发接口。在JDK1.x 版本中,JDBC只是一个可选部件,到了JDK1.1公布时,SQL类包(也就是JDBCAPI)

数字图像处理和边缘检测

中文译文 数字图像处理和边缘检测 1.数字图像处理 数字图像处理方法的研究源于两个主要应用领域:为便于人们分析而对图像信息进行改进;为使机 器自动理解而对图像数据进行存储、传输及显示。 一幅图像可定义为一个二维函数(,)f x y ,这里x 和y 是空间坐标,而在任何一对空间坐标(,)x y 上 的幅值f 称为该点图像的强度或灰度。当,x y 和幅值f 为有限的、离散的数值时,则图像为数字图像。数字图像处理是指借用数字计算机处理数字图像,值得提及的是数字图像是由有限的元素组成的,每一个元素都有一个特定的位置和幅值,这些元素称为图像元素、画面元素或像素。像素是广泛用于表示数字图像元素的词汇。 视觉是人类最高级的感知器官,所以,毫无疑问图像在人类感知中扮演着最重要的角色。然而,人 类感知只限于电磁波谱的视觉波段,成像机器则可覆盖几乎全部电磁波谱,从伽马射线到无线电波。它们可以对非人类习惯的那些图像源进行加工,这些图像源包括超声波、电子显微镜及计算机产生的图像。因此,数字图像处理涉及各种各样的应用领域。 图像处理涉及的范畴或其他相关领域(例如,图像分析和计算机视觉)的界定在初创人之间并没有 一致的看法。有时用处理的输入和输出内容都是图像这一特点来界定图像处理的范围。我们认为这一定义仅是人为界定和限制。例如,在这个定义下,甚至最普通的计算一幅图像灰度平均值的工作都不能算做是图像处理。另一方面,有些领域(如计算机视觉)研究的最高目标是用计算机去模拟人类视觉,包括理解和推理并根据视觉输入采取行动等。这一领域本身是人工智能的分支,其目的是模仿人类智能。人工智能领域处在其发展过程中的初期阶段,它的发展比预期的要慢的多,图像分析(也称为图像理解)领域则处在图像处理和计算机视觉两个学科之间。 从图像处理到计算机视觉这个连续的统一体内并没有明确的界线。然而,在这个连续的统一体中可 以考虑三种典型的计算处理(即低级、中级和高级处理)来区分其中的各个学科。 低级处理涉及初级操作,如降低噪声的图像预处理,对比度增强和图像尖锐化。低级处理是以输入、输出都是图像为特点的处理。中级处理涉及分割(把图像分为不同区域或目标物)以及缩减对目标物的描述,以使其更适合计算机处理及对不同目标的分类(识别)。中级图像处理是以输入为图像,但输出是从这些图像中提取的特征(如边缘、轮廓及不同物体的标识等)为特点的。最后,高级处理涉及在图像分析中被识别物体的总体理解,以及执行与视觉相关的识别函数(处在连续统一体边缘)等。 根据上述讨论,我们看到,图像处理和图像分析两个领域合乎逻辑的重叠区域是图像中特定区域或 物体的识别这一领域。这样,在研究中,我们界定数字图像处理包括输入和输出均是图像的处理,同时也包括从图像中提取特征及识别特定物体的处理。举一个简单的文本自动分析方面的例子来具体说明这一概念。在自动分析文本时首先获取一幅包含文本的图像,对该图像进行预处理,提取(分割)字符,然后以适合计算机处理的形式描述这些字符,最后识别这些字符,而所有这些操作都在本文界定的数字图像处理的范围内。理解一页的内容可能要根据理解的复杂度从图像分析或计算机视觉领域考虑问题。

毕业设计外文翻译附原文

外文翻译 专业机械设计制造及其自动化学生姓名刘链柱 班级机制111 学号1110101102 指导教师葛友华

外文资料名称: Design and performance evaluation of vacuum cleaners using cyclone technology 外文资料出处:Korean J. Chem. Eng., 23(6), (用外文写) 925-930 (2006) 附件: 1.外文资料翻译译文 2.外文原文

应用旋风技术真空吸尘器的设计和性能介绍 吉尔泰金,洪城铱昌,宰瑾李, 刘链柱译 摘要:旋风型分离器技术用于真空吸尘器 - 轴向进流旋风和切向进气道流旋风有效地收集粉尘和降低压力降已被实验研究。优化设计等因素作为集尘效率,压降,并切成尺寸被粒度对应于分级收集的50%的效率进行了研究。颗粒切成大小降低入口面积,体直径,减小涡取景器直径的旋风。切向入口的双流量气旋具有良好的性能考虑的350毫米汞柱的低压降和为1.5μm的质量中位直径在1米3的流量的截止尺寸。一使用切向入口的双流量旋风吸尘器示出了势是一种有效的方法,用于收集在家庭中产生的粉尘。 摘要及关键词:吸尘器; 粉尘; 旋风分离器 引言 我们这个时代的很大一部分都花在了房子,工作场所,或其他建筑,因此,室内空间应该是既舒适情绪和卫生。但室内空气中含有超过室外空气因气密性的二次污染物,毒物,食品气味。这是通过使用产生在建筑中的新材料和设备。真空吸尘器为代表的家电去除有害物质从地板到地毯所用的商用真空吸尘器房子由纸过滤,预过滤器和排气过滤器通过洁净的空气排放到大气中。虽然真空吸尘器是方便在使用中,吸入压力下降说唱空转成比例地清洗的时间,以及纸过滤器也应定期更换,由于压力下降,气味和细菌通过纸过滤器内的残留粉尘。 图1示出了大气气溶胶的粒度分布通常是双峰形,在粗颗粒(>2.0微米)模式为主要的外部来源,如风吹尘,海盐喷雾,火山,从工厂直接排放和车辆废气排放,以及那些在细颗粒模式包括燃烧或光化学反应。表1显示模式,典型的大气航空的直径和质量浓度溶胶被许多研究者测量。精细模式在0.18?0.36 在5.7到25微米尺寸范围微米尺寸范围。质量浓度为2?205微克,可直接在大气气溶胶和 3.85至36.3μg/m3柴油气溶胶。

数字图像处理实验报告--边缘检测

数字图像处理实验报告 实验名称:边缘检测 姓名: 班级: 学号:09045433 专业:电子信息工程(2+2) 指导教师:陈华华 实验日期:2012年5月17日

边缘检测 一,原理 本实验主要是对图像的边缘进行提取,通过对边缘的分析来分析图像的特征。首先,了解一些术语的定义: 边缘点:图像中具有坐标[i,j]且处在强度显著变化的位置上的点。 边缘段:对应于边缘点坐标[i,j]及其方位 ,边缘的方位可能是梯度角。 边缘检测器:从图像中提取边缘(边缘点和边缘段)集合的算法。 轮廓:边缘列表,或者是一条表示边缘列表的拟合曲线。 边缘连接:从无序边缘表形成有序边缘表的过程,习惯上,边缘表的表示采用顺时针方向来排序。 边缘跟踪:一个用来确定轮廓的图像(指滤波后的图像)搜索过程。 边缘就是图像中包含的对象的边界所对应的位置。物体的边缘以图像局部特性的不连续性的形式出现的,例如,灰度值的突变,颜色的突变,纹理结构的突变等。从本质上说,边缘就意味着一个区域的终结和另外一个区域的开始。图像边缘信息在图像分析和人的视觉中十分重要,是图像识别中提取图像特征的一个重要属性。 边缘检测(edge detection)在图像处理和对象识别领域中都是一个重要的基本问题。由于边缘的灰度不连续性,可以使用求导数的方法检测到。最早的边缘检测方法都是基于像素的数值导数的运算。本实验主要是对图像依次进行Sobel算子,Prewitt算子,Roberts算子,Laplace算子和Canny算子运算,比较处理结果。 边缘检测有三个共性准则, 1,好的检测结果,或者说对边缘的误测率尽可能低,就是在图像边缘出现的地方检测结果中不应该没有;另一方面不要出现虚假的边缘。 2,对边缘的定位要准确,也就是我们标记出的边缘位置要和图像上真正边缘的中心位置充分接近。 3,对同一边缘要有尽可能低的响应次数,也就是检测响应最好是单像素的。二,对图像进行各种算子运算 本实验中主要是对图像依次进行Sobel算子,Prewitt算子,Roberts算子,Laplace 算子和Canny算子运算。 Matlab代码: clear all; close all; warning off all; I=imread('cameraman.tif'); %%没有噪声时的检测结果 BW_sobel=edge(I,'sobel'); BW_prewitt=edge(I,'prewitt');

毕业论文外文翻译-图像分割

图像分割 前一章的资料使我们所研究的图像处理方法开始发生了转变。从输人输出均为图像的处理方法转变为输人为图像而输出为从这些图像中提取出来的属性的处理方法〔这方面在1.1节中定义过)。图像分割是这一方向的另一主要步骤。 分割将图像细分为构成它的子区域或对象。分割的程度取决于要解决的问题。就是说当感兴趣的对象已经被分离出来时就停止分割。例如,在电子元件的自动检测方面,我们关注的是分析产品的图像,检测是否存在特定的异常状态,比如,缺失的元件或断裂的连接线路。超过识别这此元件所需的分割是没有意义的。 异常图像的分割是图像处理中最困难的任务之一。精确的分割决定着计算分析过程的成败。因此,应该特别的关注分割的稳定性。在某些情况下,比如工业检测应用,至少有可能对环境进行适度控制的检测。有经验的图像处理系统设计师总是将相当大的注意力放在这类可能性上。在其他应用方面,比如自动目标采集,系统设计者无法对环境进行控制。所以,通常的方法是将注意力集中于传感器类型的选择上,这样可以增强获取所关注对象的能力,从而减少图像无关细节的影响。一个很好的例子就是,军方利用红外线图像发现有很强热信号的目标,比如移动中的装备和部队。 图像分割算法一般是基于亮度值的不连续性和相似性两个基本特性之一。第一类性质的应用途径是基于亮度的不连续变化分割图像,比如图像的边缘。第二类的主要应用途径是依据事先制定的准则将图像分割为相似的区域,门限处理、区域生长、区域分离和聚合都是这类方法的实例。 本章中,我们将对刚刚提到的两类特性各讨论一些方法。我们先从适合于检测灰度级的不连续性的方法展开,如点、线和边缘。特别是边缘检测近年来已经成为分割算法的主题。除了边缘检测本身,我们还会讨论一些连接边缘线段和把边缘“组装”为边界的方法。关于边缘检测的讨论将在介绍了各种门限处理技术之后进行。门限处理也是一种人们普遍关注的用于分割处理的基础性方法,特别是在速度因素占重要地位的应用中。关于门限处理的讨论将在几种面向区域的分割方法展开的讨论之后进行。之后,我们将讨论一种称为分水岭分割法的形态学

数字图像处理中的边缘检测技术

课程设计报告 设计题目:数字图像处理中的边缘检测技术学院: 专业: 班级:学号: 学生姓名: 电子邮件: 时间:年月 成绩: 指导教师:

数字图像处理中的边缘检测技术课程设计报告I 目录 1 前言:查阅相关文献资料,了解和掌握基本原理、方法和研究现状,以及实际应用的背景意义 (1) 1.1理论背景 (1) 1.2图像边缘检测技术研究的目的和意义 (1) 1.3国内外研究现状分析 (2) 1.4常用边缘检测方法的基本原理 (3) 2 小波变换和小波包的边缘检测、基于数学形态学的边缘检测法算法原理 (7) 2.1 小波边缘检测的原理 (7) 2.2 数学形态学的边缘检测方法的原理 (7) 3 算法实现部分:程序设计的流程图及其描述 (9) 3.1 小波变换的多尺度边缘检测程序设计算法流程图 (9) 3.2 数学形态学的边缘检测方法程序设计算法描述 (10) 4实验部分:对所给的原始图像进行对比实验,给出相应的实验数据和处理结果 (11) 5分析及结论:对实验结果进行分析比较,最后得出相应的结论 (15) 参考文献 (17) 附录:代码 (18)

1前言 查阅相关文献资料,了解和掌握基本原理、方法和研究现状,以及实际应用的背景意义 1.1 理论背景 图像处理就是对图像信息加工以满足人的视觉心理或应用需求的方法。图像处理方法有光学方法和电子学方法。从20世纪60年代起随着电子计算机和计算技术的不断提高和普及,数字图像处理进入了高速发展时期,而数字图像处理就是利用数字计算机或其它的硬件设备对图像信息转换而得到的电信号进行某些数学处理以提高图像的实用性。 图像处理在遥感技术,医学领域,安全领域,工业生产中有着广泛的应用,其中在医学应用中的超声、核磁共振和CT等技术,安全领域的模式识别技术,工业中的无损检测技术尤其引人注目。 计算机进行图像处理一般有两个目的:(1)产生更适合人观察和识别的图像。 (2)希望能由计算机自动识别和理解图像。数字图像的边缘检测是图像分割、目标区域的识别、区域形状提取等图像分析领域的重要基础,图像处理和分析的第一步往往就是边缘检测。 物体的边缘是以图像的局部特征不连续的形式出现的,也就是指图像局部亮度变化最显著的部分,例如灰度值的突变、颜色的突变、纹理结构的突变等,同时物体的边缘也是不同区域的分界处。图像边缘有方向和幅度两个特性,通常沿边缘的走向灰度变化平缓,垂直于边缘走向的像素灰度变化剧烈。根据灰度变化的特点,图像边缘可分为阶跃型、房顶型和凸缘型。 1.2 图像边缘检测技术研究的目的和意义 数字图像处理是伴随着计算机发展起来的一门新兴学科,随着计算机硬件、软件的高度发展,数字图像处理也在生活中的各个领域得到了广泛的应用。边缘检测技术是图像处理和计算机视觉等领域最基本的技术,如何快速、精确的提取图像边缘信息一直是国内外研究的热点,然而边缘检测也是图像处理中的一个难题。 首先要研究图像边缘检测,就要先研究图像去噪和图像锐化。前者是为了得到飞更真实的图像,排除外界的干扰,后者则是为我们的边缘检测提供图像特征更加明显的图片,即加大图像特征。两者虽然在图像处理中都有重要地位,但本次研究主要是针对图像边缘检测的研究,我们最终所要达到的目的是为了处理速

毕业设计外文翻译

毕业设计(论文) 外文翻译 题目西安市水源工程中的 水电站设计 专业水利水电工程 班级 学生 指导教师 2016年

研究钢弧形闸门的动态稳定性 牛志国 河海大学水利水电工程学院,中国南京,邮编210098 nzg_197901@https://www.360docs.net/doc/4715401522.html,,niuzhiguo@https://www.360docs.net/doc/4715401522.html, 李同春 河海大学水利水电工程学院,中国南京,邮编210098 ltchhu@https://www.360docs.net/doc/4715401522.html, 摘要 由于钢弧形闸门的结构特征和弹力,调查对参数共振的弧形闸门的臂一直是研究领域的热点话题弧形弧形闸门的动力稳定性。在这个论文中,简化空间框架作为分析模型,根据弹性体薄壁结构的扰动方程和梁单元模型和薄壁结构的梁单元模型,动态不稳定区域的弧形闸门可以通过有限元的方法,应用有限元的方法计算动态不稳定性的主要区域的弧形弧形闸门工作。此外,结合物理和数值模型,对识别新方法的参数共振钢弧形闸门提出了调查,本文不仅是重要的改进弧形闸门的参数振动的计算方法,但也为进一步研究弧形弧形闸门结构的动态稳定性打下了坚实的基础。 简介 低举升力,没有门槽,好流型,和操作方便等优点,使钢弧形闸门已经广泛应用于水工建筑物。弧形闸门的结构特点是液压完全作用于弧形闸门,通过门叶和主大梁,所以弧形闸门臂是主要的组件确保弧形闸门安全操作。如果周期性轴向载荷作用于手臂,手臂的不稳定是在一定条件下可能发生。调查指出:在弧形闸门的20次事故中,除了极特殊的破坏情况下,弧形闸门的破坏的原因是弧形闸门臂的不稳定;此外,明显的动态作用下发生破坏。例如:张山闸,位于中国的江苏省,包括36个弧形闸门。当一个弧形闸门打开放水时,门被破坏了,而其他弧形闸门则关闭,受到静态静水压力仍然是一样的,很明显,一个动态的加载是造成的弧形闸门破坏一个主要因素。因此弧形闸门臂的动态不稳定是造成弧形闸门(特别是低水头的弧形闸门)破坏的主要原是毫无疑问。

外文翻译---图像的边缘检测

附:英文资料翻译 图像的边缘检测 To image edge examination algorithm research academic report Abstract Digital image processing took a relative quite young discipline, is following the computer technology rapid development, day by day obtains the widespread application.The edge took the image one kind of basic characteristic, in the pattern recognition, the image division, the image intensification as well as the image compression and so on in the domain has a more widespread application.Image edge detection method many and varied, in which based on brightness algorithm, is studies the time to be most long, the theory develops the maturest method, it mainly is through some difference operator, calculates its gradient based on image brightness the change, thus examines the edge, mainly has Robert, Laplacian, Sobel, Canny, operators and so on LOG. First as a whole introduced digital image processing and the edge detection survey, has enumerated several kind of at present commonly used edge detection technology and the algorithm, and selects two kinds to use Visual the C language programming realization, through withdraws the image result to two algorithms the comparison, the research discusses their good and bad points. 对图像边缘检测算法的研究学术报告摘要 数字图像处理作为一门相对比较年轻的学科, 伴随着计算机技术的飞速发展, 日益得到广泛的应用. 边缘作为图像的一种基本特征, 在图像识别,图像分割,图像增强以及图像压缩等的领域中有较为广泛的应用.图像边缘提取的手段多种多样,其中基于亮度的算法,是研究时间最久,理论发展最成熟的方法, 它主要是通过一些差分算子, 由图像的亮度计算其梯度的变化, 从而检测出边缘, 主要有Robert, Laplacian, Sobel, Canny, LOG 等算子. 首先从总体上介绍了数字图像处理及边缘提取的概况, 列举了几种目前常用的边缘提取技术和算法,并选取其中两种使用Visual C++语言编程实现,通过对两种算法所提取图像结果的比较,研究探讨它们的优缺点. First chapter introduction §1.1 image edge examination introduction The image edge is one of image most basic characteristics, often is carrying image majority of informations.But the edge exists in the image irregular structure and in

Matlab做图像边缘检测的多种方法

Matlab做图像边缘检测的多种方法 1、用Prewitt算子检测图像的边缘 I = imread('bacteria.BMP'); BW1 = edge(I,'prewitt',0.04); % 0.04为梯度阈值 figure(1); imshow(I); figure(2); imshow(BW1); 2、用不同σ值的LoG算子检测图像的边缘 I = imread('bacteria.BMP'); BW1 = edge(I,'log',0.003); % σ=2 imshow(BW1);title('σ=2') BW1 = edge(I,'log',0.003,3); % σ=3 figure, imshow(BW1);title('σ=3') 3、用Canny算子检测图像的边缘 I = imread('bacteria.BMP'); imshow(I); BW1 = edge(I,'canny',0.2); figure,imshow(BW1); 4、图像的阈值分割 I=imread('blood1.tif'); imhist(I); % 观察灰度直方图,灰度140处有谷,确定阈值T=140 I1=im2bw(I,140/255); % im2bw函数需要将灰度值转换到[0,1]范围内 figure,imshow(I1); 5、用水线阈值法分割图像 afm = imread('afmsurf.tif');figure, imshow(afm); se = strel('disk', 15); Itop = imtophat(afm, se); % 高帽变换 Ibot = imbothat(afm, se); % 低帽变换 figure, imshow(Itop, []); % 高帽变换,体现原始图像的灰度峰值 figure, imshow(Ibot, []); % 低帽变换,体现原始图像的灰度谷值 Ienhance = imsubtract(imadd(Itop, afm), Ibot);% 高帽图像与低帽图像相减,增强图像figure, imshow(Ienhance); Iec = imcomplement(Ienhance); % 进一步增强图像

毕业设计外文翻译格式实例.

理工学院毕业设计(论文)外文资料翻译 专业:热能与动力工程 姓名:赵海潮 学号:09L0504133 外文出处:Applied Acoustics, 2010(71):701~707 附件: 1.外文资料翻译译文;2.外文原文。

附件1:外文资料翻译译文 基于一维CFD模型下汽车排气消声器的实验研究与预测Takeshi Yasuda, Chaoqun Wua, Noritoshi Nakagawa, Kazuteru Nagamura 摘要目前,利用实验和数值分析法对商用汽车消声器在宽开口喉部加速状态下的排气噪声进行了研究。在加热工况下发动机转速从1000转/分钟加速到6000转/分钟需要30秒。假定其排气消声器的瞬时声学特性符合一维计算流体力学模型。为了验证模拟仿真的结果,我们在符合日本工业标准(JIS D 1616)的消声室内测量了排气消声器的瞬态声学特性,结果发现在二阶发动机转速频率下仿真结果和实验结果非常吻合。但在发动机高阶转速下(从5000到6000转每分钟的四阶转速,从4200到6000转每分钟的六阶转速这样的高转速范围内),计算结果和实验结果出现了较大差异。根据结果分析,差异的产生是由于在模拟仿真中忽略了流动噪声的影响。为了满足市场需求,研究者在一维计算流体力学模型的基础上提出了一个具有可靠准确度的简化模型,相对标准化模型而言该模型能节省超过90%的执行时间。 关键字消声器排气噪声优化设计瞬态声学性能 1 引言 汽车排气消声器广泛用于减小汽车发动机及汽车其他主要部位产生的噪声。一般而言,消声器的设计应该满足以下两个条件:(1)能够衰减高频噪声,这是消声器的最基本要求。排气消声器应该有特定的消声频率范围,尤其是低频率范围,因为我们都知道大部分的噪声被限制在发动机的转动频率和它的前几阶范围内。(2)最小背压,背压代表施加在发动机排气消声器上额外的静压力。最小背压应该保持在最低限度内,因为大的背压会降低容积效率和提高耗油量。对消声器而言,这两个重要的设计要求往往是互相冲突的。对于给定的消声器,利用实验的方法,根据距离尾管500毫米且与尾管轴向成45°处声压等级相近的排气噪声来评估其噪声衰减性能,利用压力传感器可以很容易地检测背压。 近几十年来,在预测排气噪声方面广泛应用的方法有:传递矩阵法、有限元法、边界元法和计算流体力学法。其中最常用的方法是传递矩阵法(也叫四端网络法)。该方

科技英语翻译Unit 1—Unit 7

Unit 1 Electronics:Analog and Digital 1.As with series resonance, the greater the resistance in the circuit the lower the Q and, accordingly, the flatter and broader the resonance curve of either line current or circuit impedance. 对于串联谐振,电路中的电阻愈大Q值就愈低,相应地线路电流或电路阻抗的谐振曲线也就愈平、愈宽。 2.A wire carrying a current looks exactly the same and weighs exactly the same as it does when it is not carrying a current. 一根带电的导线其外表与重量都与不带电导线完全一样。 3.Click mouse on the waveform and drag it to change the pulse repetition rate, or directly enter a new value of the period in the provided dialogue box, while keeping the pulse width unchanged. 在波形上点击鼠标并拖动来改变脉冲重复频率,或者在提供的对话框中直接输入新的周期值,而保持脉冲宽度不变。 4.Electronics is the science and the technology of the passage of charged particles in a gas, in a vacuum, or in a semiconductor. Please note that particle motion confined within a metal only is not considered electronics. 电子学是一门有关带电粒子在气体、真空或半导体中运动的科学技术。注意,在本书中粒子运动仅限于金属的情况不属于电子学。 5.Hardware technologies have played vital roles in our ability to use electronic properties to process information, but software and data processing aspects have not developed at the same speed. 硬件技术在我们使用电子特性来处理信息的能力中一直起着重要作用,而软件及数字处理方面却没能与硬件同步发展。 6.However, in a properly designed DC amplifier the effect of transistor parameter variation, other than Ico, may be practically eliminated if the operation point of each stage is adjusted so that it remains in the linear operation range of the transistor as temperature varies. 然而在设计得当的直流放大器中,若调节每一级的工作点使之在温度变化时保持在晶体管线性区,就能在实际上消除Ico以外的晶体管参数变化所造成的影响。

毕业设计外文翻译

毕业设计(论文) 外文文献翻译 题目:A new constructing auxiliary function method for global optimization 学院: 专业名称: 学号: 学生姓名: 指导教师: 2014年2月14日

一个新的辅助函数的构造方法的全局优化 Jiang-She Zhang,Yong-Jun Wang https://www.360docs.net/doc/4715401522.html,/10.1016/j.mcm.2007.08.007 非线性函数优化问题中具有许多局部极小,在他们的搜索空间中的应用,如工程设计,分子生物学是广泛的,和神经网络训练.虽然现有的传统的方法,如最速下降方法,牛顿法,拟牛顿方法,信赖域方法,共轭梯度法,收敛迅速,可以找到解决方案,为高精度的连续可微函数,这在很大程度上依赖于初始点和最终的全局解的质量很难保证.在全局优化中存在的困难阻碍了许多学科的进一步发展.因此,全局优化通常成为一个具有挑战性的计算任务的研究. 一般来说,设计一个全局优化算法是由两个原因造成的困难:一是如何确定所得到的最小是全球性的(当时全球最小的是事先不知道),和其他的是,如何从中获得一个更好的最小跳.对第一个问题,一个停止规则称为贝叶斯终止条件已被报道.许多最近提出的算法的目标是在处理第二个问题.一般来说,这些方法可以被类?主要分两大类,即:(一)确定的方法,及(ii)的随机方法.随机的方法是基于生物或统计物理学,它跳到当地的最低使用基于概率的方法.这些方法包括遗传算法(GA),模拟退火法(SA)和粒子群优化算法(PSO).虽然这些方法有其用途,它们往往收敛速度慢和寻找更高精度的解决方案是耗费时间.他们更容易实现和解决组合优化问题.然而,确定性方法如填充函数法,盾构法,等,收敛迅速,具有较高的精度,通常可以找到一个解决方案.这些方法往往依赖于修改目标函数的函数“少”或“低”局部极小,比原来的目标函数,并设计算法来减少该?ED功能逃离局部极小更好的发现. 引用确定性算法中,扩散方程法,有效能量的方法,和积分变换方法近似的原始目标函数的粗结构由一组平滑函数的极小的“少”.这些方法通过修改目标函数的原始目标函数的积分.这样的集成是实现太贵,和辅助功能的最终解决必须追溯到

模具毕业设计外文翻译

冷冲模具使用寿命的影响及对策 冲压模具概述 冲压模具--在冷冲压加工中,将材料(金属或非金属)加工成零件(或半成品)的一种特殊工艺装备,称为冷冲压模具(俗称冷冲模)。冲压--是在室温下,利用安装在压力机上的模具对材料施加压力,使其产生分离或塑性变形,从而获得所需零件的一种压力加工方法。 冲压模具的形式很多,一般可按以下几个主要特征分类: 1.根据工艺性质分类 (1)冲裁模沿封闭或敞开的轮廓线使材料产生分离的模具。如落料模、冲孔模、切断模、切口模、切边模、剖切模等。 (2)弯曲模使板料毛坯或其他坯料沿着直线(弯曲线)产生弯曲变形,从而获得一定角度和形状的工件的模具。 (3)拉深模是把板料毛坯制成开口空心件,或使空心件进一步改变形状和尺寸的模具。 (4)成形模是将毛坯或半成品工件按图凸、凹模的形状直接复制成形,而材料本身仅产生局部塑性变形的模具。如胀形模、缩口模、扩口模、起伏成形模、翻边模、整形模等。 2.根据工序组合程度分类 (1)单工序模在压力机的一次行程中,只完成一道冲压工序的模具。 (2)复合模只有一个工位,在压力机的一次行程中,在同一工位上同时完成两道或两道以上冲压工序的模具。 (3)级进模(也称连续模)在毛坯的送进方向上,具有两个或更多的工位,在压力机的一次行程中,在不同的工位上逐次完成两道或两道以上冲压工序的模具。 冲冷冲模全称为冷冲压模具。 冷冲压模具是一种应用于模具行业冷冲压模具及其配件所需高性能结构陶瓷材料的制备方法,高性能陶瓷模具及其配件材料由氧化锆、氧化钇粉中加铝、镨元素构成,制备工艺是将氧化锆溶液、氧化钇溶液、氧化镨溶液、氧化铝溶液按一定比例混合配成母液,滴入碳酸氢铵,采用共沉淀方法合成模具及其配件陶瓷材料所需的原材料,反应生成的沉淀经滤水、干燥,煅烧得到高性能陶瓷模具及其配件材料超微粉,再经过成型、烧结、精加工,便得到高性能陶瓷模具及其配件材料。本发明的优点是本发明制成的冷冲压模具及其配件使用寿命长,在冲压过程中未出现模具及其配件与冲压件产生粘结现象,冲压件表面光滑、无毛刺,完全可以替代传统高速钢、钨钢材料。 冷冲模具主要零件 冷冲模具是冲压加工的主要工艺装备,冲压制件就是靠上、下模具的相对运动来完成的。加工时由于上、下模具之间不断地分合,如果操作工人的手指不断进入或停留在模具闭合区,便会对其人身安全带来严重威胁。

图像处理外文翻译

杭州电子科技大学 毕业设计(论文)外文文献翻译 毕业设计(论文)题目基于遗传算法的自动图像分割软件开发 翻译(1)题目Image Segmentation by Using Threshold Techniques 翻译(2)题目 A Review on Otsu Image Segmentation Algorithm 学院计算机学院 专业计算机科学与技术 姓名刘xx 班级11xxxxxx 学号1115xxxx 指导教师孔xx

使用阈值技术的图像分割 1 摘要 本文试图通过5阈值法作为平均法,P-tile算法,直方图相关技术(HDT),边缘最大化技术(EMT)和可视化技术进行了分割图像技术的研究,彼此比较从而选择合的阈值分割图像的最佳技术。这些技术适用于三个卫星图像选择作为阈值分割图像的基本猜测。 关键词:图像分割,阈值,自动阈值 1 引言 分割算法是基于不连续性和相似性这两个基本属性之一的强度值。第一类是基于在强度的突然变化,如在图像的边缘进行分区的图像。第二类是根据预定义标准基于分割的图像转换成类似的区域。直方图阈值的方法属于这一类。本文研究第二类(阈值技术)在这种情况下,通过这项课题可以给予这些研究简要介绍。阈分割技术可分为三个不同的类: 首先局部技术基于像素和它们临近地区的局部性质。其次采用全局技术分割图像可以获得图像的全局信息(通过使用图像直方图,例如;全局纹理属性)。并且拆分,合并,生长技术,为了获得良好的分割效果同时使用的同质化和几何近似的概念。最后的图像分割,在图像分析的领域中,常用于将像素划分成区域,以确定一个图像的组成[1][2]。 他们提出了一种二维(2-D)的直方图基于多分辨率分析(MRA)的自适应阈值的方法,降低了计算的二维直方图的复杂而提高了多分辨率阈值法的搜索精度。这样的方法源于通过灰度级和灵活性的空间相关性的多分辨率阈值分割方法中的阈值的寻找以及效率由二维直方图阈值分割方法所取得的非凡分割效果。实验的结果表明,这种方法可以得到的分割结果与详尽二维直方图方法相类似,而计算复杂度与分辨率等级的增加而呈指数下降[3]。 图像的阈值问题,被视为在图像处理的一个重要问题,它不仅可以减少图像数据,同时也奠定了多目标识别和图像认知提供了良好的基础。全局阈值分割和局部阈值的字符图像分割进行了分析。一个新的阈值统计迭代算法,提出要克服的直接阈值,针对一些光照不对称和明显的缺陷,或者更大的数字比例在各种各样的背景灰度图像中。统计迭代阈值分割,基于图像灰度直方图和高斯分布的统计,获得统计迭代法理论表达和最值得阈值法和步骤。航空图像通过分别使用统计迭代算法,直方图技术和自适应方法进行阈值分割。比较三种阈值结果,它表明统计迭代方法大大提高了图像分割的抗噪能力,并且有更好的图像结果,并且不容易在阈值方法中分段[4]。 模糊C均值改进算法和遥感图像分割策略,可以提供较少的迭代次数收敛到全局1Salem Saleh Al-amri1, N.V. Kalyankar2 and Khamitkar S.D 3JOURNAL OF COMPUTING,

相关文档
最新文档