MNIST机器学习入门

MNIST是一个入门级的计算机视觉数据集,它包含各种手写数字图片:

它也包含每一张图片对应的标签,告诉我们这个是数字几。比如,上面这四张图片的标签分别是5,0,4,1。

这里我们将试着训练一个机器学习模型用于预测图片里面的数字。这次我们的主要目的是研究如何使用TensorFlow。所以,我们这里会从一个很简单的数学模型开始,它叫做Softmax Regression。

对应这个教程的实现代码很短,而且真正有意思的内容只包含在三行代码里面。但是,去理解包含在这些代码里面的设计思想是非常重要的:TensorFlow工作流程和机器学习的基本概念。因此,此次会很详细地介绍这些代码的实现原理。

MNIST数据集

MNIST数据集的官网是Yann LeCun's website。在这里,我们提供了一份python源代码(见附录)用于自动下载和安装这个数据集。你可以下载这份代码,然后用下面的代码导入到你的项目里面,也可以直接复制粘贴到你的代码文件里面。

import input_data
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)

下载下来的数据集被分成两部分:60000行的训练数据集(mnist.train)和10000行的测试数据集(mnist.test)。这样的切分很重要,在机器学习模型设计时必须有一个单独的测试数据集不用于训练而是用来评估这个模型的性能,从而更加容易把设计的模型推广到其他数据集上(泛化)。

正如前面提到的一样,每一个MNIST数据单元有两部分组成:一张包含手写数字的图片和一个对应的标签。我们把这些图片设为“xs”,把这些标签设为“ys”。训练数据集和测试数据集都包含xs和ys,比如训练数据集的图片是mnist.train.images ,训练数据集的标签是 mnist.train.labels

每一张图片包含28像素X28像素。我们可以用一个数字数组来表示这张图片:


我们把这个数组展开成一个向量,长度是 28x28 = 784。如何展开这个数组(数字间的顺序)不重要,只要保持各个图片采用相同的方式展开。从这个角度来看,MNIST数据集的图片就是在784维向量空间里面的点, 并且拥有比较复杂的结构 (提醒: 此类数据的可视化是计算密集型的)。

展平图片的数字数组会丢失图片的二维结构信息。这显然是不理想的,最优秀的计算机视觉方法会挖掘并利用这些结构信息,我们会在后续教程中介绍。但是在这个教程中我们忽略这些结构,所介绍的简单数学模型,softmax回归(softmax regression),不会利用这些结构信息。

因此,在MNIST训练数据集中,mnist.train.images 是一个形状为 [60000, 784] 的张量,第一个维度数字用来索引图片,第二个维度数字用来索引每张图片中的像素点。在此张量里的每一个元素,都表示某张图片里的某个像素的强度值,值介于0和1之间。

相对应的MNIST数据集的标签是介于0到9的数字,用来描述给定图片里表示的数字。为了用于这个教程,我们使标签数据是"one-hot vectors"。 一个one-hot向量除了某一位的数字是1以外其余各维度数字都是0。所以在此教程中,数字n将表示成一个只有在第n维度(从0开始)数字为1的10维向量。比如,标签0将表示成([1,0,0,0,0,0,0,0,0,0,0])。因此,mnist.train.labels 是一个 [60000, 10] 的数字矩阵。

现在,我们准备好可以开始构建我们的模型啦!

Softmax回归介绍

我们知道MNIST的每一张图片都表示一个数字,从0到9。我们希望得到给定图片代表每个数字的概率。比如说,我们的模型可能推测一张包含9的图片代表数字9的概率是80%但是判断它是8的概率是5%(因为8和9都有上半部分的小圆),然后给予它代表其他数字的概率更小的值。

这是一个使用softmax回归(softmax regression)模型的经典案例。softmax模型可以用来给不同的对象分配概率。即使在之后,我们训练更加精细的模型时,最后一步也需要用softmax来分配概率。

softmax回归(softmax regression)分两步:第一步

为了得到一张给定图片属于某个特定数字类的证据(evidence),我们对图片像素值进行加权求和。如果这个像素具有很强的证据说明这张图片不属于该类,那么相应的权值为负数,相反如果这个像素拥有有利的证据支持这张图片属于这个类,那么权值是正数。

下面的图片显示了一个模型学习到的图片上每个像素对于特定数字类的权值。红色代表负数权值,蓝色代表正数权值。

我们也需要加入一个额外的偏置量(bias),因为输入往往会带有一些无关的干扰量。因此对于给定的输入图片 x 它代表的是数字 i 的证据可以表示为

其中 代表权重, 代表数字 i 类的偏置量,j 代表给定图片 x 的像素索引用于像素求和。然后用softmax函数可以把这些证据转换成概率 y:

这里的softmax可以看成是一个激励(activation)函数或者链接(link)函数,把我们定义的线性函数的输出转换成我们想要的格式,也就是关于10个数字类的概率分布。因此,给定一张图片,它对于每一个数字的吻合度可以被softmax函数转换成为一个概率值。softmax函数可以定义为:

展开等式右边的子式,可以得到:

但是更多的时候把softmax模型函数定义为前一种形式:把输入值当成幂指数求值,再正则化这些结果值。这个幂运算表示,更大的证据对应更大的假设模型(hypothesis)里面的乘数权重值。反之,拥有更少的证据意味着在假设模型里面拥有更小的乘数系数。假设模型里的权值不可以是0值或者负值。Softmax然后会正则化这些权重值,使它们的总和等于1,以此构造一个有效的概率分布。(更多的关于Softmax函数的信息,可以参考Michael Nieslen的书里面的这个部分,其中有关于softmax的可交互式的可视化解释。)

对于softmax回归模型可以用下面的图解释,对于输入的xs加权求和,再分别加上一个偏置量,最后再输入到softmax函数中:

如果把它写成一个等式,我们可以得到:

我们也可以用向量表示这个计算过程:用矩阵乘法和向量相加。这有助于提高计算效率。(也是一种更有效的思考方式)

更进一步,可以写成更加紧凑的方式:

实现回归模型

为了用python实现高效的数值计算,我们通常会使用函数库,比如NumPy,会把类似矩阵乘法这样的复杂运算使用其他外部语言实现。不幸的是,从外部计算切换回Python的每一个操作,仍然是一个很大的开销。如果你用GPU来进行外部计算,这样的开销会更大。用分布式的计算方式,也会花费更多的资源用来传输数据。

TensorFlow也把复杂的计算放在python之外完成,但是为了避免前面说的那些开销,它做了进一步完善。Tensorflow不单独地运行单一的复杂计算,而是让我们可以先用图描述一系列可交互的计算操作,然后全部一起在Python之外运行。(这样类似的运行方式,可以在不少的机器学习库中看到。)

使用TensorFlow之前,首先导入它:

import tensorflow as tf

我们通过操作符号变量来描述这些可交互的操作单元,可以用下面的方式创建一个:

x = tf.placeholder("float", [None, 784])

x不是一个特定的值,而是一个占位符placeholder,我们在TensorFlow运行计算时输入这个值。我们希望能够输入任意数量的MNIST图像,每一张图展平成784维的向量。我们用2维的浮点数张量来表示这些图,这个张量的形状是[None,784 ]。(这里的None表示此张量的第一个维度可以是任何长度的。)

我们的模型也需要权重值和偏置量,当然我们可以把它们当做是另外的输入(使用占位符),但TensorFlow有一个更好的方法来表示它们:Variable 。 一个Variable代表一个可修改的张量,存在在TensorFlow的用于描述交互性操作的图中。它们可以用于计算输入值,也可以在计算中被修改。对于各种机器学习应用,一般都会有模型参数,可以用Variable表示。

y = tf.nn.softmax(tf.matmul(x,W) + b)

首先,我们用tf.matmul(​​X,W)表示x乘以W,对应之前等式里面的,这里x是一个2维张量拥有多个输入。然后再加上b,把和输入到tf.nn.softmax函数里面。

至此,我们先用了几行简短的代码来设置变量,然后只用了一行代码来定义我们的模型。TensorFlow不仅仅可以使softmax回归模型计算变得特别简单,它也用这种非常灵活的方式来描述其他各种数值计算,从机器学习模型对物理学模拟仿真模型。一旦被定义好之后,我们的模型就可以在不同的设备上运行:计算机的CPU,GPU,甚至是手机!

训练模型

为了训练我们的模型,我们首先需要定义一个指标来评估这个模型是好的。其实,在机器学习,我们通常定义指标来表示一个模型是坏的,这个指标称为成本(cost)或损失(loss),然后尽量最小化这个指标。但是,这两种方式是相同的。

一个非常常见的,非常漂亮的成本函数是“交叉熵”(cross-entropy)。交叉熵产生于信息论里面的信息压缩编码技术,但是它后来演变成为从博弈论到机器学习等其他领域里的重要技术手段。它的定义如下:

y 是我们预测的概率分布, y' 是实际的分布(我们输入的one-hot vector)。比较粗糙的理解是,交叉熵是用来衡量我们的预测用于描述真相的低效性。更详细的关于交叉熵的解释超出本次试验的范畴,但是很有必要好好理解它

为了计算交叉熵,我们首先需要添加一个新的占位符用于输入正确值:

y_ = tf.placeholder("float", [None,10])

然后我们可以用计算交叉熵:

cross_entropy = -tf.reduce_sum(y_*tf.log(y))

首先,用 tf.log 计算 y 的每个元素的对数。接下来,我们把 y_的每一个元素和 tf.log(y_) 的对应元素相乘。最后,用 tf.reduce_sum 计算张量的所有元素的总和。(注意,这里的交叉熵不仅仅用来衡量单一的一对预测和真实值,而是所有100幅图片的交叉熵的总和。对于100个数据点的预测表现比单一数据点的表现能更好地描述我们的模型的性能。

现在我们知道我们需要我们的模型做什么啦,用TensorFlow来训练它是非常容易的。因为TensorFlow拥有一张描述你各个计算单元的图,它可以自动地使用反向传播算法(backpropagation algorithm)来有效地确定你的变量是如何影响你想要最小化的那个成本值的。然后,TensorFlow会用你选择的优化算法来不断地修改变量以降低成本。

train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)

在这里,我们要求TensorFlow用梯度下降算法(gradient descent algorithm)以0.01的学习速率最小化交叉熵。梯度下降算法(gradient descent algorithm)是一个简单的学习过程,TensorFlow只需将每个变量一点点地往使成本不断降低的方向移动。当然TensorFlow也提供了其他许多优化算法:只要简单地调整一行代码就可以使用其他的算法。

TensorFlow在这里实际上所做的是,它会在后台给描述你的计算的那张图里面增加一系列新的计算操作单元用于实现反向传播算法和梯度下降算法。然后,它返回给你的只是一个单一的操作,当运行这个操作时,它用梯度下降算法训练你的模型,微调你的变量,不断减少成本。

现在,我们已经设置好了我们的模型。在运行计算之前,我们需要添加一个操作来初始化我们创建的变量:

init = tf.initialize_all_variables()

现在我们可以在一个Session里面启动我们的模型,并且初始化变量:

sess = tf.Session()
sess.run(init)

然后开始训练模型,这里我们让模型循环训练1000次!

for i in range(1000):
  batch_xs, batch_ys = mnist.train.next_batch(100)
  sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})

该循环的每个步骤中,我们都会随机抓取训练数据中的100个批处理数据点,然后我们用这些数据点作为参数替换之前的占位符来运行train_step

使用一小部分的随机数据来进行训练被称为随机训练(stochastic training)- 在这里更确切的说是随机梯度下降训练。在理想情况下,我们希望用我们所有的数据来进行每一步的训练,因为这能给我们更好的训练结果,但显然这需要很大的计算开销。所以,每一次训练我们可以使用不同的数据子集,这样做既可以减少计算开销,又可以最大化地学习到数据集的总体特性。

评估我们的模型

那么我们的模型性能如何呢?

首先让我们找出那些预测正确的标签。tf.argmax是一个非常有用的函数,它能给出某个tensor对象在某一维上的其数据最大值所在的索引值。由于标签向量是由0,1组成,因此最大值1所在的索引位置就是类别标签,比如tf.argmax(y,1)返回的是模型对于任一输入x预测到的标签值,而 tf.argmax(y_,1) 代表正确的标签,我们可以用 tf.equal 来检测我们的预测是否真实标签匹配(索引位置一样表示匹配)。

correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1))

这行代码会给我们一组布尔值。为了确定正确预测项的比例,我们可以把布尔值转换成浮点数,然后取平均值。例如,[True, False, True, True] 会变成 [1,0,1,1] ,取平均值后得到 0.75.

accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))

最后,我们计算所学习到的模型在测试数据集上面的正确率。

print sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels})

这个最终结果值应该大约是91%。

这个结果好吗?嗯,并不太好。事实上,这个结果是很差的。这是因为我们仅仅使用了一个非常简单的模型。不过,做一些小小的改进,我们就可以得到97%的正确率。最好的模型甚至可以获得超过99.7%的准确率!(想了解更多信息,可以看看这个关于各种模型的性能对比列表。)
附件:input_data

2017/2/23 posted in  基础知识

第5条:用枚举表示状态、选项、状态码

枚举只是一种常量命名的方式。某个对象所经历的各种状态就可以定义为一个简单的枚举集。比如说,用枚举表示socket connection的状态:

enum  EOCConnectionState{
    EOCConnectionStateDisconnected,
    EOCConnectionStateConnecting,
    EOCConnectionStateConnected,
}

这样便于理解,其中编译器会自动为每一个枚举分配一个独有的编号,从0开始,实现枚举所用的数据类型取决于编译器,不过其二进制位(bit)的个数必须能完全表示下枚举编号才行。在前例中,由于最大编号是2,所以使用1个字节的char类型即可。

然而定义枚举变量的方式却不太简洁,要依如下语法编写:

enum EOCConnectionState state = EOCConnectionStateDisconnected;

若是每次不用敲入enum而只需写EOCConnectionState就好了。要想这样做,则需使用typedef关键字重新定义枚举类型:

enum EOCConnectionState {
EOCConnectionStateDisconnected,
EOCConnectionStateConnecting,
EOCConnectionStateConnected,
);
typedef enum EOCConnectionState EOCConnectionState;

现在可以用简写的EOCConnectionState来代替完整的enum EOCConnectionState 了:

EOCConnectionState state = EOCConnectionStateDisconnected;

在C++之后可以指定用何种“底层数据类型”来保存枚举类型的变量。这样做的好处是可以向前声明枚举变量了。若不指定底层数据类型,则无法向前声明枚举类型,因为编译器不清楚底层数据类型的大小,所以在用到此枚举类型时,也就不知道究竞该给变量分配多少空间。

指定底层数据类型所用的语法是:

enum EOCConnectionStateConnectionState : NSInteger { /*...*/ };

还可以不使用编译器所分配的序号,而是手工指定某个枚举成员所对应的值。语法如下:

enum EOCConnectionStateConnectionState {
EOCConnectionStateDisconnected = 1,
EOCConnectionStateConnectingf
EOCConnectionStateConnected
};

上述代码把EOCConnectionStateDisconnected的值设为1,而不使用编译器所分配的0,如前所述,接下来几个枚举的值都会在上一个的基础上递增1。比如说,EOCConnectionState-Connected的值就是3。

还有一种情况应该使用枚举类型,那就是定义选项的时候。若这些选项可以彼此组合,则更应如此。只要枚举定义得对,各选项之间就可通过“按位或操作符”(bitwise OR operator)来组合。例如,iOSUI框架中有如下枚举类型,用来表示某个视图应该如何在水平或垂直方向上调整大小:

enum UIViewAutoresizing {
   UIViewAutoresizingNone                  =0,
   UIViewAutoresizingFlexibleLeftMargin    =1<<0,
   UIViewAutoresizingFlexibleWidth         =1<<1,
   UIViewAutoresizingFlexibleRightMargin   =1<<2,
   □IViewAutoresizingFlexibleTopMargin     =1<<3,
   UIViewAutoresizingFlexibleHeight        =1<<4,
   UIViewAutoresizingFlexibleBottomMargin  =1<<5,
}

每个选项均可以启用或者禁用,,使用上述方式来定义枚举值即可保证这一点,因为在每个枚举值所对应的二进制表示中,只有1个二进制位的值是1。用“按位或操作符”可组合多个选项,例如:
UIViewAutoResizingFlexibleWidth|UIViewAutoresizingFlexibleHeight

下图列出了每个枚举成员的二进制值,并演示了刚才那两个枚举组合之后的值。用“按位或操作符”(bitwise OR operator)即可判断出是否已启用某个选项:

enum UIViewAutoresizing resizing =
UIViewAutoresizingFlexiblGWidth | UIViewAutoresizingFlexibleHeight;

if (resizing & UIViewAutoresizingFlexibleWidth) {
// UIViewAutoresizingFlexibleWidth is set
}


  上图中每个枚举值的二进制表示,以及对其中两个枚举值执行按位或操作之后的二进制值。

  在Foundation框架中也定义了一些辅助的宏,用这些宏来定义枚举类型时,也可以指定用于保存枚举值的底层数据类型。这些宏具备向后兼容(backward compatibility)能力,如果目标平台的编译器支持新标准,那就使用新式语法,否则改用旧式语法。这些宏是用#define预处理指令来定义的,其中一个用于定义像EOCConnectionState这种普通的枚举类型,另一个用于定义像UIViewAutoresizing这种包含一系列选项的枚举类型,其用法如下:

typedef NS^ENUM(NSUInteger, EOCConnectionState) {
    EOCConnectionStateDisconnected,
    EOCConnectionStateConnecting,
    EOCConnectionStateConnected,
};
typedef NS_OPTIONS(NSUInteger, EOCPermittedDirection) {
    EOCPermittedDirectionUp =   1   <<  0,
    EOCPermittedDirectionDown   =   1   <<  1,
    EOCPermittedDirectionLeft   =   1   <<  2,
    EOCPermittedDirectionRight  =   1   <<  3,

最后还有一种枚举的用法,就是在switch语句里,有时可以这样定义:

typedef NS_ENUM(NSUInteger, EOCConnectionState) {
    EOCConnectionStateDisconnected,
    EOCConnectionStateConnecting,
    EOCConnectionStateConnected,
};
switch (currentState) {
    EOCConnectionStateDisconnected:
        // Handle disconnected state
        break;
    EOCConnectionStateConnecting:
        // Handle connecting state
        break;
    EOCConnectionStateConnected:
        // Handle connected state
        break;
}

我们总习惯在switch语句中加上default分支。然而,若是用枚举来定义状态机(state machine),则最好不要有default分支,因为不加default的话,如果稍后又加了一种状态,那么编译器就会发出警告信息,提示新加入的状态并未在switch分支中处理。假如写上了 default分支,那么它就会处理这个新状态,从而导致编译器不发瞀告信息,不利于程序的编写。

要点

  • 应该用枚举来表示状态机的状态、传递给方法的选项以及状态码等值,给这些值起个易懂的名字。
  • 如果把传递给某个方法的选项表示为枚举类型,而多个选项又可同时使用,那么就将各选项值定义为2的幂,以便通过按位或操作将其组合起来。
  • 用NS_ENUM与NS_OPTIONS宏来定义枚举类型,并指明其底层数据类型。这样做可以确保枚举是用开发者所选的底层数据类型实现出来的,而不会采用编泽器所选的类型。
  • 在处理枚举类型的switch语句中不要实现default分支。这样的话,加入新枚举之后,编译器就会提示开发者:switch语句并未处理所有枚举,有利于定位TODO方位。
2017/1/14 posted in  第一章 熟悉oc

第4条:多用类型常量,少用#define预处理指令

对于一般掌握了Objective-C和C语言的人,也许会用这种方法来定义一个类似动画的时间常量:

#define ANIMATION_DURATION = 0.3

上述预处理指令会吧源代码中的ANIMATION_DURATION字符串替换为0.3。
在OC中我们常常用更好的方法来定义,比方说,下面这行代码定义了一个类型为NSTimeInterval的常量:

static const NSTimeInterval KAnimationDuration = 0.3;

要注意的是此方式定义的常量包含类型信息,其好处就是清楚的描述了常量的含义,有助于编写开发文档。

还要注意常量的名称。常用的命名法是:若常量局限于某“编译单元(也就是实现文件之内,implementation)”,一般在前面加上字母k;若长亮在类之外课件,则通常以类名为前缀。之后将会更加详细的说命名问题。

定义常量的位置很重要。我们总是很喜欢在头文件里声明预处理命令,这样是很糟糕的。例如,ANIMATION_DURATION这个常量名就不应该在头文件中,因为所有引入了这份头文件的其他文件中都会出现这个名字。static const定义的常量也不应该出现在头文件中。因为OC没有命名空间这一概念,所以那样做就等于声明了一个名字叫kANIMATIONDURATION的全局变量。此名称应该加上前缀,以表明其所属的类,例如可以改为EOCViewClassAnimationDuration。

如果不打算去公开某个常量,则应该将其定义为在使用该常量的实现文件中,比如说,要开发一个使用UIKit框架的iOS应用程序,其中UIView子类中含有表示动画播放时间的常量,那么可以这样写:

//EOCAnimatedView.h
#import <UIKit/UIKit.h>
@interface EOCAnimatedView:UIView
-(void)animate;
@end

//EOCAnimatedView.m
#import EOCAnimatedView.h

static const NSTimeInterval kAnimationDuration  = 0.3;

@implemention EOCAnimatedView

-(void)animate{
  [UIViewanimateWithDuration:KAnimationDuration 
                    animate:^(){
                        //Perform animations
                    }]
}

变量一定要同时用static和const来声明。如果试图修改const所声明的变量,编译器会报错。static修饰符意味着该变量仅仅在定义此变量的便一单元中可见。编译器每收到一个编译单元,就会输出一份目标文件。在OC中“编译单元”一词 通常指每个类的实现文件(以.m为后缀名)其作用域仅限于由EOCAnimatedView.m所生成的目标文件中。假如声明此变量时不加static,则编译器会为它创建一个“外部符号”(external symbol)。此时,若是另一个编译单元中也声 明了同名变量,那么编译器就拋出一条错误消息。

有时候需要对外公开某个常量,想要接受常值变量的注册者不需要知道实际的字符串值,只需要以常值变量来注册自己想要接受的通知就可以

此类常量应该放在“全局变量表”中,以便可以在定义该常量的编译单元之外使用。因此可以这样的来定义:

// in the header file
extern NSString *const EOCStringConstant;

//in the implementation
NSString *const EOCStringConstant = @"value";

这个常量在头文件中声明,在实现文件里面定义。这类常量只能定义一次。

这样定义常量要优于#define,一旦在.m文件中定义好全局常量后,可以随处使用。

要点
* 不要用预处理指令定义常量,这样定义出来的常量不包含类型信息,编译器只是会在编译之前执行查找与替换操作。即使有人重新定义了常量值,编译器也不会产生警告信息。
* 在实现文件中使用static const来定义“只在编译单元内可见的常量”。由于此类常量不在全局符号表中,所以无需为其名称添加前缀。
* 再投问价那种使用extern来声明全局变量,并且在相关的实现文件中定义其值。这种常量要出现在全局符号表中,所以其名称应该加以区隔,通常用与之有关的类名做前缀。

2017/1/13 posted in  第一章 熟悉oc

第1条:了解Objective—C语言的起源

OC语言使用“消息结构”(messageing structure)而不是函数调用。OC是由Smalltalk演化而来。主要区别为:

//Messaging(OC)  

Object *obj = [Object new];  
[obj performWith:par1 and:par2];
   
//Function(C++)  

Object *obj = new Object;    
obj->perform(par1,par2);   

关键区别在于:使用消息结构的语言,其运行时所应执行的代码由运行环境所决定;而使用函数调用的语言,则由编译器决定。

所有的OC语言的对象都应该如下声明:

NSString *str = @“The string”;

因为所有的对象所占内存总是分配在“堆空间”中,而绝不会分配在“栈”(stack)上。一般变量分配在栈上。QQ20170112-0@2x

要点:
* OC为C语言添加了面向对象的特性,是它的超集。OC使用动态绑定的消息结构,也就是说,在运行时才会检查对象类型。接收一条消息之后,究竟应该执行何种代码,由运行时环境决定而不是编译器。
* 理解C语言的核心概念有助于写好OC程序。尤其是要掌握内存模型和指针。

第2条:在类的头文件中尽量少引入其它头文件

例如:
创建一个EOCPerson的类,其中属性中包含有EOCEmployer的类。

//EOCPerson.h
#import<Foundation/Foundation.h>
@interface EOCPerson:NSObject
@property (nonatomic,copy) NSString *firstname;
@property (nonatomic,copy) NSString *lastname;
@property (nonatomic,strong) EOCEmployer *employer;
@end

这样做常见的方法是在头部引入:

#import “EOCEmployer.h”

但是我们在这里不需要知道EOCEmployer这个类的全部细节,只需要知道这里有一个类就好。所以有一个方法为:

@class EOCEmployer;

这叫做前向声明。现在EOCPerson的头文件变为:

//EOCPerson.h
#import<Foundation/Foundation.h>

@class EOCEmployer;

@interface EOCPerson:NSObject
@property (nonatomic,copy) NSString *firstname;
@property (nonatomic,copy) NSString *lastname;
@property (nonatomic,strong) EOCEmployer *employer;
@end

但是EOCPerson类的实现文件则需要引入EOCEmployer类的头文件,因为知道其中所有的接口细节。于是,实现文件就是:

//EOCPerson.m
#import "EOCPerson.h";
#import "EOCEmployer.h"

@implementation EOCPerson
//.....
@end

要点:
* 除非的确有必要,否则不要引入头文件。一般来说,应该在某个类的头文件中使用向前声明来提及别的类,并在实现文件中引入那些类的头文件。这样做可以尽量降低类之间的耦合。
* 有时无法使用向前声明,比如要声明某各类所遵循的一项协议,这种情况下,尽量吧“该类所遵循的协议“的这条声明移至”class-continuation分类“中。如果不行的话,就把协议单独放在一个头文件中,然后将其引入。

第3条:多用字面量语法,少用与之等价的方法

从OC1.0开始,有一种非常简单的方式创建NSString对象。这就是”字符串字面量(string literal)“,其语法如下所示:

NSString *string = @”effective OC 2.0“;

如果不用这种语法的话,就要以常见的alloc以及init方法来分配和初始化对象了。

字面数值

有时候需要把整数、浮点数、布尔值封入OC对象中。这种情况下可以使用NSNumber类,该类可以处理多种类型的数值。最原始的创建方法为:

NSNumber *someNumber = [NSNumber numberWithInt:1];

上面这行代码创建了一个数字,将它的值设为了1.然而使用字面量能令代码更为整洁:

NSNumber *someNumber = @1;

字面量数组

创建方法为:

NSArray *animals =@[@"cat",@"dog",@"mouse",@"badger"];

使用字面量获取则为:

NSString *dog = animals[1];

字面量字典

”字典“(dictionary)是一种映射性数据结构,可以向其中添加键值对。与数组一样字面量编写方式为:

NSDictionary *personData = @{@"firstName":@"Matt",
                            @"lastName":@"Galloway",
                            @"age":@28}

可变数组与字典

通过取下标操作,可以访问数组中某个下标或者字典中某个键所对应的元素。如果数组与字典对象试课变得(mutable),那么也能通过下标修改其中的元素值。例如:

mutableArray[1] = @"dog";
mutableDictionary[@"lastName"] = @"Galloway"; 

要点

  • 应该使用字面量语法来创建字符串、数值、数组、字典。与创建此类对象的常规方法相比,这么做更加简明扼要。
  • 应该通过下标来操作和访问数组小标或者字典中的键所对应的元素。
  • 用字面量语法创建数组或者字典时,若值中有nil,则会抛出异常。因此,务必保证值中不包含有nil。
2017/1/13 posted in  第一章 熟悉oc