Java多线程操作局部变量与全局变量

在这篇文章里,我们首先阐述什么是同步,不同步有什么问题,然后讨论可以采取哪些措施控制同步,接下来我们会仿照回顾网络通信时那样,构建一个服务器端的“线程池”,JDK为我们提供了一个很大的concurrent工具包,最后我们会对里面的内容进行探索。

  为什么要线程同步?

  说到线程同步,大部分情况下, 我们是在针对“单对象多线程”的情况进行讨论,一般会将其分成两部分,一部分是关于“共享变量”,一部分关于“执行步骤”。

  共享变量

  当我们在线程对象(Runnable)中定义了全局变量,run方法会修改该变量时,如果有多个线程同时使用该线程对象,那么就会造成全局变量的值被同时修改,造成错误。我们来看下面的代码:

复制代码
 1 class MyRunner implements Runnable
 2 {
 3     public int sum = 0;
 4     
 5     public void run() 
 6     {
 7         System.out.println(Thread.currentThread().getName() + " Start.");
 8         for (int i = 1; i <= 100; i++)
 9         {
10             sum += i;
11         }
12         try {
13             Thread.sleep(500);
14         } catch (InterruptedException e) {
15             e.printStackTrace();
16         }
17         System.out.println(Thread.currentThread().getName() + " --- The value of sum is " + sum);
18         System.out.println(Thread.currentThread().getName() + " End.");
19     }
20 }
21 
22 
23 private static void sharedVaribleTest() throws InterruptedException
24 {
25     MyRunner runner = new MyRunner();
26     Thread thread1 = new Thread(runner);
27     Thread thread2 = new Thread(runner);
28     thread1.setDaemon(true);
29     thread2.setDaemon(true);
30     thread1.start();
31     thread2.start();
32     thread1.join();
33     thread2.join();
34 }
复制代码

  这个示例中,线程用来计算1到100的和是多少,我们知道正确结果是5050(好像是高斯小时候玩过这个?),但是上述程序返回的结果是10100,原因是两个线程同时对sum进行操作。

  执行步骤

  我们在多个线程运行时,可能需要某些操作合在一起作为“原子操作”,即在这些操作可以看做是“单线程”的,例如我们可能希望输出结果的样子是这样的:

复制代码
1 线程1:步骤1
2 线程1:步骤2
3 线程1:步骤3
4 线程2:步骤1
5 线程2:步骤2
6 线程2:步骤3
复制代码

  如果同步控制不好,出来的样子可能是这样的:

线程1:步骤1
线程2:步骤1
线程1:步骤2
线程2:步骤2
线程1:步骤3
线程2:步骤3

  这里我们也给出一个示例代码:

复制代码
 1 class MyNonSyncRunner implements Runnable
 2 {
 3     public void run() {
 4         System.out.println(Thread.currentThread().getName() + " Start.");
 5         for(int i = 1; i <= 5; i++)
 6         {
 7             System.out.println(Thread.currentThread().getName() + " Running step " + i);
 8             try
 9             {
10                 Thread.sleep(50);
11             }
12             catch(InterruptedException ex)
13             {
14                 ex.printStackTrace();
15             }
16         }
17         System.out.println(Thread.currentThread().getName() + " End.");
18     }
19 }
20 
21 
22 private static void syncTest() throws InterruptedException
23 {
24     MyNonSyncRunner runner = new MyNonSyncRunner();
25     Thread thread1 = new Thread(runner);
26     Thread thread2 = new Thread(runner);
27     thread1.setDaemon(true);
28     thread2.setDaemon(true);
29     thread1.start();
30     thread2.start();
31     thread1.join();
32     thread2.join();
33 }
复制代码

  如何控制线程同步

  既然线程同步有上述问题,那么我们应该如何去解决呢?针对不同原因造成的同步问题,我们可以采取不同的策略。

  控制共享变量

  我们可以采取3种方式来控制共享变量。

  将“单对象多线程”修改成“多对象多线程”  

  上文提及,同步问题一般发生在“单对象多线程”的场景中,那么最简单的处理方式就是将运行模型修改成“多对象多线程”的样子,针对上面示例中的同步问题,修改后的代码如下:

复制代码
 1 private static void sharedVaribleTest2() throws InterruptedException
 2 {
 3     Thread thread1 = new Thread(new MyRunner());
 4     Thread thread2 = new Thread(new MyRunner());
 5     thread1.setDaemon(true);
 6     thread2.setDaemon(true);
 7     thread1.start();
 8     thread2.start();
 9     thread1.join();
10     thread2.join();
11 }
复制代码

  我们可以看到,上述代码中两个线程使用了两个不同的Runnable实例,它们在运行过程中,就不会去访问同一个全局变量。

  将“全局变量”降级为“局部变量”

  既然是共享变量造成的问题,那么我们可以将共享变量改为“不共享”,即将其修改为局部变量。这样也可以解决问题,同样针对上面的示例,这种解决方式的代码如下:

复制代码
 1 class MyRunner2 implements Runnable
 2 {
 3     public void run() 
 4     {
 5         System.out.println(Thread.currentThread().getName() + " Start.");
 6         int sum = 0;
 7         for (int i = 1; i <= 100; i++)
 8         {
 9             sum += i;
10         }
11         try {
12             Thread.sleep(500);
13         } catch (InterruptedException e) {
14             e.printStackTrace();
15         }
16         System.out.println(Thread.currentThread().getName() + " --- The value of sum is " + sum);
17         System.out.println(Thread.currentThread().getName() + " End.");
18     }
19 }
20 
21 
22 private static void sharedVaribleTest3() throws InterruptedException
23 {
24     MyRunner2 runner = new MyRunner2();
25     Thread thread1 = new Thread(runner);
26     Thread thread2 = new Thread(runner);
27     thread1.setDaemon(true);
28     thread2.setDaemon(true);
29     thread1.start();
30     thread2.start();
31     thread1.join();
32     thread2.join();
33 }
复制代码

  我们可以看出,sum变量已经由全局变量变为run方法内部的局部变量了。

  使用ThreadLocal机制

  ThreadLocal是JDK引入的一种机制,它用于解决线程间共享变量,使用ThreadLocal声明的变量,即使在线程中属于全局变量,针对每个线程来讲,这个变量也是独立的。

  我们可以用这种方式来改造上面的代码,如下所示:

复制代码
 1 class MyRunner3 implements Runnable
 2 {
 3     public ThreadLocal<Integer> tl = new ThreadLocal<Integer>();
 4     
 5     public void run() 
 6     {
 7         System.out.println(Thread.currentThread().getName() + " Start.");
 8         for (int i = 0; i <= 100; i++)
 9         {
10             if (tl.get() == null)
11             {
12                 tl.set(new Integer(0));
13             }
14             int sum = ((Integer)tl.get()).intValue();
15             sum+= i;
16             tl.set(new Integer(sum));
17             try {
18                 Thread.sleep(10);
19             } catch (InterruptedException e) {
20                 e.printStackTrace();
21             }
22         }
23         
24         System.out.println(Thread.currentThread().getName() + " --- The value of sum is " + ((Integer)tl.get()).intValue());
25         System.out.println(Thread.currentThread().getName() + " End.");
26     }
27 }
28 
29 
30 private static void sharedVaribleTest4() throws InterruptedException
31 {
32     MyRunner3 runner = new MyRunner3();
33     Thread thread1 = new Thread(runner);
34     Thread thread2 = new Thread(runner);
35     thread1.setDaemon(true);
36     thread2.setDaemon(true);
37     thread1.start();
38     thread2.start();
39     thread1.join();
40     thread2.join();
41 }
复制代码

  综上三种方案,第一种方案会降低多线程执行的效率,因此,我们推荐使用第二种或者第三种方案。

  控制执行步骤

  说到执行步骤,我们可以使用synchronized关键字来解决它。

复制代码
 1 class MySyncRunner implements Runnable
 2 {
 3     public void run() {
 4         synchronized(this)
 5         {
 6             System.out.println(Thread.currentThread().getName() + " Start.");
 7             for(int i = 1; i <= 5; i++)
 8             {
 9                 System.out.println(Thread.currentThread().getName() + " Running step " + i);
10                 try
11                 {
12                     Thread.sleep(50);
13                 }
14                 catch(InterruptedException ex)
15                 {
16                     ex.printStackTrace();
17                 }
18             }
19             System.out.println(Thread.currentThread().getName() + " End.");
20         }
21     }
22 }
23 
24 
25 private static void syncTest2() throws InterruptedException
26 {
27     MySyncRunner runner = new MySyncRunner();
28     Thread thread1 = new Thread(runner);
29     Thread thread2 = new Thread(runner);
30     thread1.setDaemon(true);
31     thread2.setDaemon(true);
32     thread1.start();
33     thread2.start();
34     thread1.join();
35     thread2.join();
36 }
复制代码

  在线程同步的话题上,synchronized是一个非常重要的关键字。它的原理和数据库中事务锁的原理类似。我们在使用过程中,应该尽量缩减synchronized覆盖的范围,原因有二:1)被它覆盖的范围是串行的,效率低;2)容易产生死锁。我们来看下面的示例:

复制代码
 1 private static void syncTest3() throws InterruptedException
 2 {
 3     final List<Integer> list = new ArrayList<Integer>();
 4     
 5     Thread thread1 = new Thread()
 6     {
 7         public void run()
 8         {
 9             System.out.println(Thread.currentThread().getName() + " Start.");
10             Random r = new Random(100);
11             synchronized(list)
12             {
13                 for (int i = 0; i < 5; i++)
14                 {
15                     list.add(new Integer(r.nextInt()));
16                 }
17                 System.out.println("The size of list is " + list.size());
18             }
19             try
20             {
21                 Thread.sleep(500);
22             }
23             catch(InterruptedException ex)
24             {
25                 ex.printStackTrace();
26             }
27             System.out.println(Thread.currentThread().getName() + " End.");
28         }
29     };
30     
31     Thread thread2 = new Thread()
32     {
33         public void run()
34         {
35             System.out.println(Thread.currentThread().getName() + " Start.");
36             Random r = new Random(100);
37             synchronized(list)
38             {
39                 for (int i = 0; i < 5; i++)
40                 {
41                     list.add(new Integer(r.nextInt()));
42                 }
43                 System.out.println("The size of list is " + list.size());
44             }
45             try
46             {
47                 Thread.sleep(500);
48             }
49             catch(InterruptedException ex)
50             {
51                 ex.printStackTrace();
52             }
53             System.out.println(Thread.currentThread().getName() + " End.");
54         }
55     };
56     
57     thread1.start();
58     thread2.start();
59     thread1.join();
60     thread2.join();
61 }
复制代码

  我们应该把需要同步的内容集中在一起,尽量不包含其他不相关的、消耗大量资源的操作,示例中线程休眠的操作显然不应该包括在里面。

  构造线程池

  我们在Java回顾之网络通信中,已经构建了一个Socket连接池,这里我们在此基础上,构建一个线程池,完成基本的启动、休眠、唤醒、停止操作。

  基本思路还是以数组的形式保持一系列线程,通过Socket通信,客户端向服务器端发送命令,当服务器端接收到命令后,根据收到的命令对线程数组中的线程进行操作。

  Socket客户端的代码保持不变,依然采用构建Socket连接池时的代码,我们主要针对服务器端进行改造。

  首先,我们需要定义一个线程对象,它用来执行我们的业务操作,这里简化起见,只让线程进行休眠。

复制代码
 1 enum ThreadStatus
 2 {
 3     Initial,
 4     Running,
 5     Sleeping,
 6     Stopped
 7 }
 8 
 9 enum ThreadTask
10 {
11     Start,
12     Stop,
13     Sleep,
14     Wakeup
15 }
16 
17 
18 class MyThread extends Thread
19 {
20     public ThreadStatus status = ThreadStatus.Initial;
21     public ThreadTask task;
22     public void run()
23     {
24         status = ThreadStatus.Running;
25         while(true)
26         {
27             try {
28                 Thread.sleep(3000);
29                 if (status == ThreadStatus.Sleeping)
30                 {
31                     System.out.println(Thread.currentThread().getName() + " 进入休眠状态。");
32                     this.wait();
33                 }
34             } catch (InterruptedException e) {
35                 System.out.println(Thread.currentThread().getName() + " 运行过程中出现错误。");
36                 status = ThreadStatus.Stopped;
37             }
38         }
39     }
40 }
复制代码

  然后,我们需要定义一个线程管理器,它用来对线程池中的线程进行管理,代码如下:

复制代码
 1 class MyThreadManager
 2 {
 3     public static void manageThread(MyThread[] threads, ThreadTask task)
 4     {
 5         for (int i = 0; i < threads.length; i++)
 6         {
 7             synchronized(threads[i])
 8             {
 9                 manageThread(threads[i], task);
10             }
11         }
12         System.out.println(getThreadStatus(threads));
13     }
14     
15     public static void manageThread(MyThread thread, ThreadTask task)
16     {
17         if (task == ThreadTask.Start)
18         {
19             if (thread.status == ThreadStatus.Running)
20             {
21                 return;
22             }
23             if (thread.status == ThreadStatus.Stopped)
24             {
25                 thread = new MyThread();
26             }
27             thread.status = ThreadStatus.Running;
28             thread.start();
29             
30         }
31         else if (task == ThreadTask.Stop)
32         {
33             if (thread.status != ThreadStatus.Stopped)
34             {
35                 thread.interrupt();
36                 thread.status = ThreadStatus.Stopped;
37             }
38         }
39         else if (task == ThreadTask.Sleep)
40         {
41             thread.status = ThreadStatus.Sleeping;
42         }
43         else if (task == ThreadTask.Wakeup)
44         {
45             thread.notify();
46             thread.status = ThreadStatus.Running;
47         }
48     }
49     
50     public static String getThreadStatus(MyThread[] threads)
51     {
52         StringBuffer sb = new StringBuffer();
53         for (int i = 0; i < threads.length; i++)
54         {
55             sb.append(threads[i].getName() + "的状态:" + threads[i].status).append("\r\n");
56         }
57         return sb.toString();
58     }
59 }
复制代码

  最后,是我们的服务器端,它不断接受客户端的请求,每收到一个连接请求,服务器端会新开一个线程,来处理后续客户端发来的各种操作指令。

复制代码
 1 public class MyThreadPool {
 2 
 3     public static void main(String[] args) throws IOException
 4     {
 5         MyThreadPool pool = new MyThreadPool(5);
 6     }
 7     
 8     private int threadCount;
 9     private MyThread[] threads = null;
10     
11     
12     public MyThreadPool(int count) throws IOException
13     {
14         this.threadCount = count;
15         threads = new MyThread[count];
16         for (int i = 0; i < threads.length; i++)
17         {
18             threads[i] = new MyThread();
19             threads[i].start();
20         }
21         Init();
22     }
23     
24     private void Init() throws IOException
25     {
26         ServerSocket serverSocket = new ServerSocket(5678);
27         while(true)
28         {
29             final Socket socket = serverSocket.accept();
30             Thread thread = new Thread()
31             {
32                 public void run()
33                 {
34                     try
35                     {
36                         System.out.println("检测到一个新的Socket连接。");
37                         BufferedReader br = new BufferedReader(new InputStreamReader(socket.getInputStream()));
38                         PrintStream ps = new PrintStream(socket.getOutputStream());
39                         String line = null;
40                         while((line = br.readLine()) != null)
41                         {
42                             System.out.println(line);
43                             if (line.equals("Count"))
44                             {
45                                 System.out.println("线程池中有5个线程");
46                             }
47                             else if (line.equals("Status"))
48                             {
49                                 String status = MyThreadManager.getThreadStatus(threads);
50                                 System.out.println(status);
51                             }
52                             else if (line.equals("StartAll"))
53                             {
54                                 MyThreadManager.manageThread(threads, ThreadTask.Start);
55                             }
56                             else if (line.equals("StopAll"))
57                             {
58                                 MyThreadManager.manageThread(threads, ThreadTask.Stop);
59                             }
60                             else if (line.equals("SleepAll"))
61                             {
62                                 MyThreadManager.manageThread(threads, ThreadTask.Sleep);
63                             }
64                             else if (line.equals("WakeupAll"))
65                             {
66                                 MyThreadManager.manageThread(threads, ThreadTask.Wakeup);
67                             }
68                             else if (line.equals("End"))
69                             {
70                                 break;
71                             }
72                             else
73                             {
74                                 System.out.println("Command:" + line);
75                             }
76                             ps.println("OK");
77                             ps.flush();
78                         }
79                     }
80                     catch(Exception ex)
81                     {
82                         ex.printStackTrace();
83                     }
84                 }
85             };
86             thread.start();
87         }
88     }
89 }
复制代码

  探索JDK中的concurrent工具包

  为了简化开发人员在进行多线程开发时的工作量,并减少程序中的bug,JDK提供了一套concurrent工具包,我们可以用它来方便的开发多线程程序。

  线程池  

  我们在上面实现了一个非常“简陋”的线程池,concurrent工具包中也提供了线程池,而且使用非常方便。

  concurrent工具包中的线程池分为3类:ScheduledThreadPool、FixedThreadPool和CachedThreadPool。

  首先我们来定义一个Runnable的对象

复制代码
 1 class MyRunner implements Runnable
 2 {
 3     public void run() {
 4         System.out.println(Thread.currentThread().getName() + "运行开始");
 5         for(int i = 0; i < 1; i++)
 6         {
 7             try
 8             {
 9                 System.out.println(Thread.currentThread().getName() + "正在运行");
10                 Thread.sleep(200);
11             }
12             catch(Exception ex)
13             {
14                 ex.printStackTrace();
15             }
16         }
17         System.out.println(Thread.currentThread().getName() + "运行结束");
18     }
19 }
复制代码

  可以看出,它的功能非常简单,只是输出了线程的执行过程。

  ScheduledThreadPool

  这和我们平时使用的ScheduledTask比较类似,或者说很像Timer,它可以使得一个线程在指定的一段时间内开始运行,并且在间隔另外一段时间后再次运行,直到线程池关闭。

  示例代码如下:

复制代码
 1 private static void scheduledThreadPoolTest()
 2 {
 3     final ScheduledExecutorService scheduler = Executors.newScheduledThreadPool(3);
 4     
 5     MyRunner runner = new MyRunner();
 6     
 7     final ScheduledFuture<?> handler1 = scheduler.scheduleAtFixedRate(runner, 1, 10, TimeUnit.SECONDS);
 8     final ScheduledFuture<?> handler2 = scheduler.scheduleWithFixedDelay(runner, 2, 10, TimeUnit.SECONDS);
 9     
10     scheduler.schedule(new Runnable()
11     {
12         public void run()
13         {
14             handler1.cancel(true);
15             handler2.cancel(true);
16             scheduler.shutdown();
17         }
18     }, 30, TimeUnit.SECONDS
19     );
20 }
复制代码
  FixedThreadPool

  这是一个指定容量的线程池,即我们可以指定在同一时间,线程池中最多有多个线程在运行,超出的线程,需要等线程池中有空闲线程时,才能有机会运行。

  来看下面的代码:

复制代码
 1 private static void fixedThreadPoolTest()
 2 {
 3     ExecutorService exec = Executors.newFixedThreadPool(3);
 4     for(int i = 0; i < 5; i++)
 5     {
 6         MyRunner runner = new MyRunner();
 7         exec.execute(runner);
 8     }
 9     exec.shutdown();
10 }
复制代码

  注意它的输出结果:

复制代码
pool-1-thread-1运行开始
pool-1-thread-1正在运行
pool-1-thread-2运行开始
pool-1-thread-2正在运行
pool-1-thread-3运行开始
pool-1-thread-3正在运行
pool-1-thread-1运行结束
pool-1-thread-1运行开始
pool-1-thread-1正在运行
pool-1-thread-2运行结束
pool-1-thread-2运行开始
pool-1-thread-2正在运行
pool-1-thread-3运行结束
pool-1-thread-1运行结束
pool-1-thread-2运行结束
复制代码

  可以看到从始至终,最多有3个线程在同时运行。

  CachedThreadPool

  这是另外一种线程池,它不需要指定容量,只要有需要,它就会创建新的线程。

  它的使用方式和FixedThreadPool非常像,来看下面的代码:

复制代码
 1 private static void cachedThreadPoolTest()
 2 {
 3     ExecutorService exec = Executors.newCachedThreadPool();
 4     for(int i = 0; i < 5; i++)
 5     {
 6         MyRunner runner = new MyRunner();
 7         exec.execute(runner);
 8     }
 9     exec.shutdown();
10 }
复制代码

  它的执行结果如下:

复制代码
pool-1-thread-1运行开始
pool-1-thread-1正在运行
pool-1-thread-2运行开始
pool-1-thread-2正在运行
pool-1-thread-3运行开始
pool-1-thread-3正在运行
pool-1-thread-4运行开始
pool-1-thread-4正在运行
pool-1-thread-5运行开始
pool-1-thread-5正在运行
pool-1-thread-1运行结束
pool-1-thread-2运行结束
pool-1-thread-3运行结束
pool-1-thread-4运行结束
pool-1-thread-5运行结束
复制代码

  可以看到,它创建了5个线程。

  处理线程返回值

  在有些情况下,我们需要使用线程的返回值,在上述的所有代码中,线程这是执行了某些操作,没有任何返回值。

  如何做到这一点呢?我们可以使用JDK中的Callable<T>和CompletionService<T>,前者返回单个线程的结果,后者返回一组线程的结果。

  返回单个线程的结果

  还是直接看代码吧:

复制代码
 1 private static void callableTest() throws InterruptedException, ExecutionException
 2 {
 3     ExecutorService exec = Executors.newFixedThreadPool(1);
 4     Callable<String> call = new Callable<String>()
 5     {
 6         public String call()
 7         {
 8             return "Hello World.";
 9         }
10     };
11     Future<String> result = exec.submit(call);
12     System.out.println("线程的返回值是" + result.get());
13     exec.shutdown();
14 }
复制代码

  执行结果如下:

线程的返回值是Hello World.
  返回线程池中每个线程的结果

  这里需要使用CompletionService<T>,代码如下:

复制代码
 1 private static void completionServiceTest() throws InterruptedException, ExecutionException
 2 {
 3     ExecutorService exec = Executors.newFixedThreadPool(10);
 4     CompletionService<String> service = new ExecutorCompletionService<String>(exec);
 5     for (int i = 0; i < 10; i++)
 6     {
 7         Callable<String> call = new Callable<String>()
 8         {
 9             public String call() throws InterruptedException
10             {
11                 return Thread.currentThread().getName();
12             }
13         };
14         service.submit(call);
15     }
16     
17     Thread.sleep(1000);
18     for(int i = 0; i < 10; i++)
19     {
20         Future<String> result = service.take();
21         System.out.println("线程的返回值是" + result.get());
22     }
23     exec.shutdown();
24 }
复制代码

  执行结果如下:

复制代码
线程的返回值是pool-2-thread-1
线程的返回值是pool-2-thread-2
线程的返回值是pool-2-thread-3
线程的返回值是pool-2-thread-5
线程的返回值是pool-2-thread-4
线程的返回值是pool-2-thread-6
线程的返回值是pool-2-thread-8
线程的返回值是pool-2-thread-7
线程的返回值是pool-2-thread-9
线程的返回值是pool-2-thread-10
复制代码

  实现生产者-消费者模型

  对于生产者-消费者模型来说,我们应该都不会陌生,通常我们都会使用某种数据结构来实现它。在concurrent工具包中,我们可以使用BlockingQueue来实现生产者-消费者模型,如下:

复制代码
 1 public class BlockingQueueSample {
 2 
 3     public static void main(String[] args)
 4     {
 5         blockingQueueTest();
 6     }
 7     
 8     private static void blockingQueueTest()
 9     {
10         final BlockingQueue<Integer> queue = new LinkedBlockingQueue<Integer>();
11         final int maxSleepTimeForSetter = 10;
12         final int maxSleepTimerForGetter = 10;
13         
14         Runnable setter = new Runnable()
15         {
16             public void run()
17             {
18                 Random r = new Random();
19                 while(true)
20                 {
21                     int value = r.nextInt(100);
22                     try
23                     {
24                         queue.put(new Integer(value));
25                         System.out.println(Thread.currentThread().getName() + "---向队列中插入值" + value);
26                         Thread.sleep(r.nextInt(maxSleepTimeForSetter) * 1000);
27                     }
28                     catch(Exception ex)
29                     {
30                         ex.printStackTrace();
31                     }
32                 }
33             }
34         };
35         
36         Runnable getter = new Runnable()
37         {
38             public void run()
39             {
40                 Random r = new Random();
41                 while(true)
42                 {
43                     try
44                     {
45                         if (queue.size() == 0)
46                         {
47                             System.out.println(Thread.currentThread().getName() + "---队列为空");
48                         }
49                         else
50                         {
51                             int value = queue.take().intValue();
52                             System.out.println(Thread.currentThread().getName() + "---从队列中获取值" + value);
53                         }
54                         Thread.sleep(r.nextInt(maxSleepTimerForGetter) * 1000);
55                     }
56                     catch(Exception ex)
57                     {
58                         ex.printStackTrace();
59                     }
60                 }
61             }
62         };
63         
64         ExecutorService exec = Executors.newFixedThreadPool(2);
65         exec.execute(setter);
66         exec.execute(getter);
67     }
68 }
复制代码

  我们定义了两个线程,一个线程向Queue中添加数据,一个线程从Queue中取数据。我们可以通过控制maxSleepTimeForSetter和maxSleepTimerForGetter的值,来使得程序得出不同的结果。

  可能的执行结果如下:

复制代码
pool-1-thread-1---向队列中插入值88
pool-1-thread-2---从队列中获取值88
pool-1-thread-1---向队列中插入值75
pool-1-thread-2---从队列中获取值75
pool-1-thread-2---队列为空
pool-1-thread-2---队列为空
pool-1-thread-2---队列为空
pool-1-thread-1---向队列中插入值50
pool-1-thread-2---从队列中获取值50
pool-1-thread-2---队列为空
pool-1-thread-2---队列为空
pool-1-thread-2---队列为空
pool-1-thread-2---队列为空
pool-1-thread-2---队列为空
pool-1-thread-1---向队列中插入值51
pool-1-thread-1---向队列中插入值92
pool-1-thread-2---从队列中获取值51
pool-1-thread-2---从队列中获取值92
复制代码

  因为Queue中的值和Thread的休眠时间都是随机的,所以执行结果也不是固定的。

  使用信号量来控制线程

  JDK提供了Semaphore来实现“信号量”的功能,它提供了两个方法分别用于获取和释放信号量:acquire和release,示例代码如下:

复制代码
 1 private static void semaphoreTest()
 2 {
 3     ExecutorService exec = Executors.newFixedThreadPool(10);
 4     final Semaphore semp = new Semaphore(2);
 5     
 6     for (int i = 0; i < 10; i++)
 7     {
 8         Runnable runner = new Runnable()
 9         {
10             public void run()
11             {
12                 try
13                 {
14                     semp.acquire();
15                     System.out.println(new Date() + " " + Thread.currentThread().getName() + "正在执行。");
16                     Thread.sleep(5000);
17                     semp.release();
18                 }
19                 catch(Exception ex)
20                 {
21                     ex.printStackTrace();
22                 }
23             }
24         };
25         exec.execute(runner);
26     }
27     
28     exec.shutdown();
29 }
复制代码

  执行结果如下:

复制代码
Tue May 07 11:22:11 CST 2013 pool-1-thread-1正在执行。
Tue May 07 11:22:11 CST 2013 pool-1-thread-2正在执行。
Tue May 07 11:22:17 CST 2013 pool-1-thread-3正在执行。
Tue May 07 11:22:17 CST 2013 pool-1-thread-4正在执行。
Tue May 07 11:22:22 CST 2013 pool-1-thread-5正在执行。
Tue May 07 11:22:22 CST 2013 pool-1-thread-6正在执行。
Tue May 07 11:22:27 CST 2013 pool-1-thread-7正在执行。
Tue May 07 11:22:27 CST 2013 pool-1-thread-8正在执行。
Tue May 07 11:22:32 CST 2013 pool-1-thread-10正在执行。
Tue May 07 11:22:32 CST 2013 pool-1-thread-9正在执行。
复制代码

  可以看出,尽管线程池中创建了10个线程,但是同时运行的,只有2个线程。

  控制线程池中所有线程的执行步骤

  在前面,我们已经提到,可以用synchronized关键字来控制单个线程中的执行步骤,那么如果我们想要对线程池中的所有线程的执行步骤进行控制的话,应该如何实现呢?

  我们有两种方式,一种是使用CyclicBarrier,一种是使用CountDownLatch。

  CyclicBarrier使用了类似于Object.wait的机制,它的构造函数中需要接收一个整型数字,用来说明它需要控制的线程数目,当在线程的run方法中调用它的await方法时,它会保证所有的线程都执行到这一步,才会继续执行后面的步骤。

  示例代码如下:

复制代码
 1 class MyRunner2 implements Runnable
 2 {
 3     private CyclicBarrier barrier = null;
 4     public MyRunner2(CyclicBarrier barrier)
 5     {
 6         this.barrier = barrier;
 7     }
 8     
 9     public void run() {
10         Random r = new Random();
11         try
12         {
13             for (int i = 0; i < 3; i++)
14             {
15                 Thread.sleep(r.nextInt(10) * 1000);
16                 System.out.println(new Date() + "--" + Thread.currentThread().getName() + "--第" + (i + 1) + "次等待。");
17                 barrier.await();
18             }
19         }
20         catch(Exception ex)
21         {
22             ex.printStackTrace();
23         }
24     }
25     
26 }
27 
28 private static void cyclicBarrierTest()
29 {
30     CyclicBarrier barrier = new CyclicBarrier(3);
31     
32     ExecutorService exec = Executors.newFixedThreadPool(3);
33     for (int i = 0; i < 3; i++)
34     {
35         exec.execute(new MyRunner2(barrier));
36     }
37     exec.shutdown();
38 }
复制代码

  执行结果如下:

复制代码
Tue May 07 11:31:20 CST 2013--pool-1-thread-2--第1次等待。
Tue May 07 11:31:21 CST 2013--pool-1-thread-3--第1次等待。
Tue May 07 11:31:24 CST 2013--pool-1-thread-1--第1次等待。
Tue May 07 11:31:24 CST 2013--pool-1-thread-1--第2次等待。
Tue May 07 11:31:26 CST 2013--pool-1-thread-3--第2次等待。
Tue May 07 11:31:30 CST 2013--pool-1-thread-2--第2次等待。
Tue May 07 11:31:32 CST 2013--pool-1-thread-1--第3次等待。
Tue May 07 11:31:33 CST 2013--pool-1-thread-3--第3次等待。
Tue May 07 11:31:33 CST 2013--pool-1-thread-2--第3次等待。
复制代码

  可以看出,thread-2到第1次等待点时,一直等到thread-1到达后才继续执行。

  CountDownLatch则是采取类似”倒计时计数器”的机制来控制线程池中的线程,它有CountDown和Await两个方法。示例代码如下:

复制代码
 1 private static void countdownLatchTest() throws InterruptedException
 2 {
 3     final CountDownLatch begin = new CountDownLatch(1);
 4     final CountDownLatch end = new CountDownLatch(5);
 5     ExecutorService exec = Executors.newFixedThreadPool(5);
 6     for (int i = 0; i < 5; i++)
 7     {
 8         Runnable runner = new Runnable()
 9         {
10             public void run()
11             {
12                 Random r = new Random();
13                 try
14                 {
15                     begin.await();
16                     System.out.println(Thread.currentThread().getName() + "运行开始");
17                     Thread.sleep(r.nextInt(10)*1000);
18                     System.out.println(Thread.currentThread().getName() + "运行结束");
19                 }
20                 catch(Exception ex)
21                 {
22                     ex.printStackTrace();
23                 }
24                 finally
25                 {
26                     end.countDown();
27                 }
28             }
29         };
30         exec.execute(runner);
31     }
32     begin.countDown();
33     end.await();
34     System.out.println(Thread.currentThread().getName() + "运行结束");
35     exec.shutdown();
36 }
复制代码

  执行结果如下:

复制代码
pool-1-thread-1运行开始
pool-1-thread-5运行开始
pool-1-thread-2运行开始
pool-1-thread-3运行开始
pool-1-thread-4运行开始
pool-1-thread-2运行结束
pool-1-thread-1运行结束
pool-1-thread-3运行结束
pool-1-thread-5运行结束
pool-1-thread-4运行结束
main运行结束
复制代码

 

  • 6
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
华为java培训讲义 第一天 配置java环境变量JAVA_HOME:配置JDK的目录 CLASSPATH:指定到哪里去找运行时需要用到的类代码(字节码) PATH:指定可执行程序的位置 LINUX系统(在" .bash_profile "下的环境变量设置) JAVA_HOME=/opt/jdk1.5.0_06 CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar PATH=$PATH:$JAVA_HOME/bin:. export JAVA_HOME CLASSPATH PATH (将指定的环境变量声明为全局的) windows系统: 右击我的电脑-->属性-->高级-->环境变量 Java的运行过程: 编译:生成可执行文件,如C++利用g++生成a.out,效率高,但不跨平台 解释:解释器把源文件逐行解释,跨平台但效率不高 在java:先编译后解释,把.java文件编译成.class字节码文件 Java源代码文件(.java文件)---> Java编译器(javac)---> Java字节码文件(.class文件,平台无关的)---> Java解释器(java),执行Java字节码 Java的垃圾回收: 由一个后台线程gc进行垃圾回收 虚拟机判定内存不够的时候会断代码的运行,这时候gc才进行垃圾回收 缺点:不能够精确的去回收内存 java.lang.System.gc(); 建议回收内存,但系统不一定回应,他会先去看内存是否够用,够用则不予理睬,不够用才会去进行垃圾回收 内存什么算是垃圾: 不再被引用的对象(局部变量,没有指针指向的) java的安全性: 沙箱机制:只能做沙箱允许的操作 通过下面环节,实现安全 加载有用的类文件,不需要的不加载 校验字节码,查看允许的操作 查看代码和虚拟机的特性是否相符 查看代码是否有破坏性 查看是否有违规操作,如越界 查看类型是否匹配,类型转换是否能正确执行 源程序: package mypack; //相当于一个目录 public class HelloWorld{ public static void main(String[] args){ System.out.println(“Hello World”); } } 注: 1、文件名必须和public修饰的类名一致,以.java作为文件后缀,如果定义的类不是public的,则文件名与类名可以不同。 2、一个.java文件可以有多个class,但是只有一个public修饰的类。 3、java源代码文件编译后,一个类对应生成一个.class文件 4、一个java应用程序应该包含一个main()方法,而且其签名是固定的,它是应用程序的入口方法,可以定义在任意一个类,不一定是public修饰的类
Java优化编程(第2版)通过丰富、完整、富有代表性的实例,展示了如何提升Java应用性能,并且给出了优化前与优化后的Java应用程序的性能差别,以实际的实例与数字告诉你,为什么不可以这么做,应该怎么做,深入分析了影响Java应用程序性能的根本原因。本书不是教你怎样使用Java语言开发应用程序,而是教你怎样才能开发出更高效、更优秀的Java应用程序。书每一个例子都经过了作者严格的验证。 本书适合于所有想编写更高效、完美Java应用程序的开发人员阅读。 本书通过丰富、完整、富有代表性的实例,展示了如何提升Java应用性能,并且给出了优化前与优化后的Java应用程序的性能差别,以实际的实例与数字告诉你,为什么不可以这么做,应该怎么做,深入分析了影响Java应用程序性能的根本原因。本书不是教你怎样使用Java语言开发应用程序,而是教你怎样才能开发出更高效、更优秀的Java应用程序。书每一个例子都经过了作者严格的验证。<br> 本书适合于所有想编写更高效、完美Java应用程序的开发人员阅读.使用有道云笔记,轻松同步、管理您各终端的所有笔记。三重备份,存储数据安全有保障。免费的超大存储空间,无限量增长。 目录: 第1章 java程序设计风格 1.1 java文件名与文件组织结构 1.2 java文件注释头 1.3 包的声明与引用 1.4 类与接口的声明 1.5 java源文件编排格式 代码行长度与折行规则 1.6 程序注释 1.7 变量的声明初始化与放置 1.7.1 变量声明 1.7.2 变量初始化 1.7.3 变量放置 1.8 java程序语句编写规则 1.8.1 简单语句 1.8.2 复合语句 1.9 空格与空行的应用规则 1.9.1 空格的应用规则 1.9.2 空行的应用规则 1.10 方法、变量与常量的命名规则 1.10.1 方法的命名规则 . 1.10.2 变量的命名规则 1.10.3 常量的命名规则 1.11 java编程实践 1.11.1 访问实例与类变量的规则 1.11.2 引用类的静态变量与方法的 …… 小结 第4章 java核心类与性能优化 4.1 散列表类与性能优化 4.1.1 线程同步散列表类 4.1.2 设置arraylist初始化容量 4.1.3 arraylist与linkedlist 4.2 string类与性能优化 4.2.1 字符串累加与性能优化 4.2.2 字符串的length()方法与性能优化 4.2.3 tochararray()方法与性能优化 4.2.4 字符串转化为数字 4.3 系统i/o类 4.3.1 java语言输入/输出流 4.3.2 通过系统缓冲流类提高i/o操作效率 4.3.3 通过自定制缓冲区提高i/o操作效率 4.3.4 通过压缩流提高i/o操作效率 4.3.5 通过非阻塞i/o优化应用性能 4.4 其他 104 4.4.1 数据格式化与性能优化 4.4.2 获取文件信息与性能优化 小结 第5章 jni程序设计与性能优化 5.1 jni技术架构 5.2 创建带有本地方法的java应用 5.3 创建c端代码 5.3.1 创建c端代码头文件 5.3.2 创建c端代码主文件 5.4 jni技术数据类型与处理方法 5.4.1 jni技术的本地数据类型 5.4.2 访问jni本地数据类型的方法 5.4.3 在jni本地方法访问数组 5.4.4 jni的主要方法 5.5 jni的重要技术 5.5.1 局部引用与全局引用 5.5.2 处理本地方法引起的java错误 5.5.3 线程与本地方法 5.6 jni数学计算与性能优化 5.7 处理好jni文问题 小结 第6章 类与接口 6.1 类的构造器 6.1.1 构造器编写规则 6.2 类的继承规则 6.2.1 单线继承规则 6.2.2 包内部继承规则 6.2.3 逻辑包含继承规则 6.3 抽象类与接口 6.4 继承与组合的应用时机 6.5 接口与抽象类的应用时机 6.6 内部类 6.7 与性能相关的建议与经验 小结 第7章 jsp与servlet性能优化 7.1 提升jsp应用性能 7.1.1 优化jspinit()方法 7.1.2 通过优化_jspservice()方法提高系统性能 7.1.3 jsp高级知识 7.2 提升servlet应用性能 7.2.1 提高servlet应用性能的七个方法 7.2.2 合理缓冲静态数据与动态数据 7.2.3 改善servlet应用性能的方法 7.2.4 filter servlet与listener servlet 小结 第8章 开发高性能的ejb应用 8.1 采用ejb技术的必要性 8.1.1 ejb技术的优势特性 8.1.2 ejb技术体系具有清晰的架构层次 8.1.3 ejb与传统bean相比的性能优势 8.2 ejb的类型 8.2.1 ejb的生命周期 8.2.2 三种ejb的特点与适用场合 8.2.3 本地ejb与远程ejb的性能比较 8.2.4 有状态会话ejb与httpsession 8.2.5 ejb 3.0规范的ejb 8.3 优化无状态会话ejb性能 8.3.1 如何控制无状态会话ejb的生命周期 8.3.2 通过调节无状态会话ejb实例池的大小来优化系统性能 8.3.3 无状态会话ejb资源的缓冲与释放 8.4 优化有状态会话ejb性能 8.4.1 控制有状态会话ejb生命周期 8.4.2 优化有状态会话ejb的主要途径 8.5 优化实体ejb的性能 8.5.1 如何控制实体ejb的生命周期 8.5.2 通过调节实体ejb实例池的大小来优化系统性能 8.5.3 控制好实体ejb的事务 8.5.4 提高实体ejb应用性能的其他知识 8.6 优化消息ejb性能 8.6.1 如何控制消息ejb的生命周期 8.6.2 如何缓存释放系统资源 8.7 几种ejb的结合应用规则 8.8 提高ejb应用性能的其他途径 小结 第9章 jms性能优化 9.1 jms消息收发模式及其各自适用场合 9.2 发送与接收jms消息 9.3 优化jms的会话对象 9.4 优化连接对象 9.5 优化消息目的地destination及消息生产者与消费者 9.6 优化消息对象及合理使用事务机制 9.7 影响jms性能的其他因素 小结 …… 第12章 java多线程技术与应用性能优化 12.1 java多线程技术 12.1.1 进程与线程 12.1.2 线程的生命周期 12.2 并行任务与性能 12.2.1 并行任务与多线程 12.2.2 并行任务与死锁 12.3 线程池技术与应用性能优化 12.3.1 线程池 12.3.2 调优线程池的尺寸 12.4 通过线程池技术优化套接字网络编程 小结 第13章 java泛型与应用优化 13.1 认识泛型 13.1.1 使用泛型的收益 13.1.2 泛型与jdk 5.0的集合类 13.2 使用泛型 13.2.1 创建支持泛型的类 13.2.2 泛型的自动解包装与自动包装的功能 13.2.4 限制泛型类型参数的范围 小结 第14章 ajax技术与web应用性能优化 14.1 了解ajax 14.2 通过ajax技术改善web应用性能 14.2.1 ajax技术实现 14.2.2 ajax技术性能优化实例 小结 第15章 其他优化话题 15.1 用weakhashmap屏蔽内存泄漏 15.2 优化java应用大小 15.3 通过randomaccess接口优化迭代列表 15.4 合并java的多进程与系统优化 小结 附录a together工具的使用简介 附录b j2se 5.0的新特性与性能的提升 附录c 编排代码的精美工具jxbeauty 使用有道云笔记,轻松同步、管理您各终端的所有笔记。三重备份,存储数据安全有保障。免费的超大存储空间,无限量增长。激活后即可免费获得2GB云存储空间。赶紧来体验吧。 http://note.youdao.com/?invitation=6C359E8D3B4645CA9B2433C6E328E66F 使用有道云笔记,轻松同步、管理您各终端的所有笔记。三重备份,存储数据安全有保障。免费的超大存储空间,无限量增长。
文将对 Linux™ 程序员可以使用的内存管理技术进行概述,虽然关注的重点是 C 语言,但同样也适用于其他语言。文将为您提供如何管理内存的细节,然后将进一步展示如何手工管理内存,如何使用引用计数或者内存池来半手工地管理内存,以及如何使用垃圾收集自动管理内存。 为什么必须管理内存 内存管理是计算机编程最为基本的领域之一。在很多脚本语言,您不必担心内存是如何管理的,这并不能使得内存管理的重要性有一点点降低。对实际编程来说,理解您的内存管理器的能力与局限性至关重要。在大部分系统语言,比如 C 和 C++,您必须进行内存管理。本文将介绍手工的、半手工的以及自动的内存管理实践的基本概念。 追溯到在 Apple II 上进行汇编语言编程的时代,那时内存管理还不是个大问题。您实际上在运行整个系统。系统有多少内存,您就有多少内存。您甚至不必费心思去弄明白它有多少内存,因为每一台机器的内存数量都相同。所以,如果内存需要非常固定,那么您只需要选择一个内存范围并使用它即可。 不过,即使是在这样一个简单的计算机,您也会有问题,尤其是当您不知道程序的每个部分将需要多少内存时。如果您的空间有限,而内存需求是变化的,那么您需要一些方法来满足这些需求: 确定您是否有足够的内存来处理数据。 从可用的内存获取一部分内存。 向可用内存池(pool)返回部分内存,以使其可以由程序的其他部分或者其他程序使用。 实现这些需求的程序库称为 分配程序(allocators),因为它们负责分配和回收内存。程序的动态性越强,内存管理就越重要,您的内存分配程序的选择也就更重要。让我们来了解可用于内存管理的不同方法,它们的好处与不足,以及它们最适用的情形。 回页首 C 风格的内存分配程序 C 编程语言提供了两个函数来满足我们的三个需求: malloc:该函数分配给定的字节数,并返回一个指向它们的指针。如果没有足够的可用内存,那么它返回一个空指针。 free:该函数获得指向由 malloc 分配的内存片段的指针,并将其释放,以便以后的程序或操作系统使用(实际上,一些 malloc 实现只能将内存归还给程序,而无法将内存归还给操作系统)。 物理内存和虚拟内存 要理解内存在程序是如何分配的,首先需要理解如何将内存从操作系统分配给程序。计算机上的每一个进程都认为自己可以访问所有的物理内存。显然,由于同时在运行多个程序,所以每个进程不可能拥有全部内存。实际上,这些进程使用的是 虚拟内存。 只是作为一个例子,让我们假定您的程序正在访问地址为 629 的内存。不过,虚拟内存系统不需要将其存储在位置为 629 的 RAM 。实际上,它甚至可以不在 RAM —— 如果物理 RAM 已经满了,它甚至可能已经被转移到硬盘上!由于这类地址不必反映内存所在的物理位置,所以它们被称为虚拟内存。操作系统维持着一个虚拟地址到物理地址的转换的表,以便计算机硬件可以正确地响应地址请求。并且,如果地址在硬盘上而不是在 RAM ,那么操作系统将暂时停止您的进程,将其他内存转存到硬盘,从硬盘上加载被请求的内存,然后再重新启动您的进程。这样,每个进程都获得了自己可以使用的地址空间,可以访问比您物理上安装的内存更多的内存。 在 32-位 x86 系统上,每一个进程可以访问 4 GB 内存。现在,大部分人的系统上并没有 4 GB 内存,即使您将 swap 也算上, 每个进程所使用的内存也肯定少于 4 GB。因此,当加载一个进程时,它会得到一个取决于某个称为 系统断点(system break)的特定地址的初始内存分配。该地址之后是未被映射的内存 —— 用于在 RAM 或者硬盘没有分配相应物理位置的内存。因此,如果一个进程运行超出了它初始分配的内存,那么它必须请求操作系统“映射进来(map in)”更多的内存。(映射是一个表示一一对应关系的数学术语 —— 当内存的虚拟地址有一个对应的物理地址来存储内存内容时,该内存将被映射。) 基于 UNIX 的系统有两个可映射到附加内存的基本系统调用: brk: brk() 是一个非常简单的系统调用。还记得系统断点吗?该位置是进程映射的内存边界。 brk() 只是简单地将这个位置向前或者向后移动,就可以向进程添加内存或者从进程取走内存。 mmap: mmap(),或者说是“内存映像”,类似于 brk(),但是更为灵活。首先,它可以映射任何位置的内存,而不单单只局限于进程。其次,它不仅可以将虚拟地址映射到物理的 RAM 或者 swap,它还可以将它们映射到文件和文件位置,这样,读写内存将对文件的数据进行读写。不过,在这里,我们只关心 mmap 向进程添加被映射的内存的能力。 munmap() 所做的事情与 mmap() 相反。 如您所见, brk() 或者 mmap() 都可以用来向我们的进程添加额外的虚拟内存。在我们的例子将使用 brk(),因为它更简单,更通用。 实现一个简单的分配程序 如果您曾经编写过很多 C 程序,那么您可能曾多次使用过 malloc() 和 free()。不过,您可能没有用一些时间去思考它们在您的操作系统是如何实现的。本节将向您展示 malloc 和 free 的一个最简化实现的代码,来帮助说明管理内存时都涉及到了哪些事情。 要试着运行这些示例,需要先 复制本代码清单,并将其粘贴到一个名为 malloc.c 的文件。接下来,我将一次一个部分地对该清单进行解释。 在大部分操作系统,内存分配由以下两个简单的函数来处理: void *malloc(long numbytes):该函数负责分配 numbytes 大小的内存,并返回指向第一个字节的指针。 void free(void *firstbyte):如果给定一个由先前的 malloc 返回的指针,那么该函数会将分配的空间归还给进程的“空闲空间”。 malloc_init 将是初始化内存分配程序的函数。它要完成以下三件事:将分配程序标识为已经初始化,找到系统最后一个有效内存地址,然后建立起指向我们管理的内存的指针。这三个变量都是全局变量: 清单 1. 我们的简单分配程序的全局变量 int has_initialized = 0; void *managed_memory_start; void *last_valid_address; 如前所述,被映射的内存的边界(最后一个有效地址)常被称为系统断点或者 当前断点。在很多 UNIX® 系统,为了指出当前系统断点,必须使用 sbrk(0) 函数。 sbrk 根据参数给出的字节数移动当前系统断点,然后返回新的系统断点。使用参数 0 只是返回当前断点。这里是我们的 malloc 初始化代码,它将找到当前断点并初始化我们的变量: 清单 2. 分配程序初始化函数 /* Include the sbrk function */ #include void malloc_init() { /* grab the last valid address from the OS */ last_valid_address = sbrk(0); /* we don't have any memory to manage yet, so *just set the beginning to be last_valid_address */ managed_memory_start = last_valid_address; /* Okay, we're initialized and ready to go */ has_initialized = 1; } 现在,为了完全地管理内存,我们需要能够追踪要分配和回收哪些内存。在对内存块进行了 free 调用之后,我们需要做的是诸如将它们标记为未被使用的等事情,并且,在调用 malloc 时,我们要能够定位未被使用的内存块。因此, malloc 返回的每块内存的起始处首先要有这个结构: 清单 3. 内存控制块结构定义 struct mem_control_block { int is_available; int size; }; 现在,您可能会认为当程序调用 malloc 时这会引发问题 —— 它们如何知道这个结构?答案是它们不必知道;在返回指针之前,我们会将其移动到这个结构之后,把它隐藏起来。这使得返回的指针指向没有用于任何其他用途的内存。那样,从调用程序的角度来看,它们所得到的全部是空闲的、开放的内存。然后,当通过 free() 将该指针传递回来时,我们只需要倒退几个内存字节就可以再次找到这个结构。 在讨论分配内存之前,我们将先讨论释放,因为它更简单。为了释放内存,我们必须要做的惟一一件事情就是,获得我们给出的指针,回退 sizeof(struct mem_control_block) 个字节,并将其标记为可用的。这里是对应的代码: 清单 4. 解除分配函数 void free(void *firstbyte) { struct mem_control_block *mcb; /* Backup from the given pointer to find the * mem_control_block */ mcb = firstbyte - sizeof(struct mem_control_block); /* Mark the block as being available */ mcb->is_available = 1; /* That's It! We're done. */ return; } 如您所见,在这个分配程序,内存的释放使用了一个非常简单的机制,在固定时间内完成内存释放。分配内存稍微困难一些。以下是该算法的略述: 清单 5. 主分配程序的伪代码 1. If our allocator has not been initialized, initialize it. 2. Add sizeof(struct mem_control_block) to the size requested. 3. start at managed_memory_start. 4. Are we at last_valid address? 5. If we are: A. We didn't find any existing space that was large enough -- ask the operating system for more and return that. 6. Otherwise: A. Is the current space available (check is_available from the mem_control_block)? B. If it is: i) Is it large enough (check "size" from the mem_control_block)? ii) If so: a. Mark it as unavailable b. Move past mem_control_block and return the pointer iii) Otherwise: a. Move forward "size" bytes b. Go back go step 4 C. Otherwise: i) Move forward "size" bytes ii) Go back to step 4 我们主要使用连接的指针遍历内存来寻找开放的内存块。这里是代码: 清单 6. 主分配程序 void *malloc(long numbytes) { /* Holds where we are looking in memory */ void *current_location; /* This is the same as current_location, but cast to a * memory_control_block */ struct mem_control_block *current_location_mcb; /* This is the memory location we will return. It will * be set to 0 until we find something suitable */ void *memory_location; /* Initialize if we haven't already done so */ if(! has_initialized) { malloc_init(); } /* The memory we search for has to include the memory * control block, but the users of malloc don't need * to know this, so we'll just add it in for them. */ numbytes = numbytes + sizeof(struct mem_control_block); /* Set memory_location to 0 until we find a suitable * location */ memory_location = 0; /* Begin searching at the start of managed memory */ current_location = managed_memory_start; /* Keep going until we have searched all allocated space */ while(current_location != last_valid_address) { /* current_location and current_location_mcb point * to the same address. However, current_location_mcb * is of the correct type, so we can use it as a struct. * current_location is a void pointer so we can use it * to calculate addresses. */ current_location_mcb = (struct mem_control_block *)current_location; if(current_location_mcb->is_available) { if(current_location_mcb->size >= numbytes) { /* Woohoo! We've found an open, * appropriately-size location. */ /* It is no longer available */ current_location_mcb->is_available = 0; /* We own it */ memory_location = current_location; /* Leave the loop */ break; } } /* If we made it here, it's because the Current memory * block not suitable; move to the next one */ current_location = current_location + current_location_mcb->size; } /* If we still don't have a valid location, we'll * have to ask the operating system for more memory */ if(! memory_location) { /* Move the program break numbytes further */ sbrk(numbytes); /* The new memory will be where the last valid * address left off */ memory_location = last_valid_address; /* We'll move the last valid address forward * numbytes */ last_valid_address = last_valid_address + numbytes; /* We need to initialize the mem_control_block */ current_location_mcb = memory_location; current_location_mcb->is_available = 0; current_location_mcb->size = numbytes; } /* Now, no matter what (well, except for error conditions), * memory_location has the address of the memory, including * the mem_control_block */ /* Move the pointer past the mem_control_block */ memory_location = memory_location + sizeof(struct mem_control_block); /* Return the pointer */ return memory_location; } 这就是我们的内存管理器。现在,我们只需要构建它,并在程序使用它即可。 运行下面的命令来构建 malloc 兼容的分配程序(实际上,我们忽略了 realloc() 等一些函数,不过, malloc() 和 free() 才是最主要的函数): 清单 7. 编译分配程序 gcc -shared -fpic malloc.c -o malloc.so 该程序将生成一个名为 malloc.so 的文件,它是一个包含有我们的代码的共享库。 在 UNIX 系统,现在您可以用您的分配程序来取代系统的 malloc(),做法如下: 清单 8. 替换您的标准的 malloc LD_PRELOAD=/path/to/malloc.so export LD_PRELOAD LD_PRELOAD 环境变量使动态链接器在加载任何可执行程序之前,先加载给定的共享库的符号。它还为特定库的符号赋予优先权。因此,从现在起,该会话的任何应用程序都将使用我们的 malloc(),而不是只有系统的应用程序能够使用。有一些应用程序不使用 malloc(),不过它们是例外。其他使用 realloc() 等其他内存管理函数的应用程序,或者错误地假定 malloc() 内部行为的那些应用程序,很可能会崩溃。ash shell 似乎可以使用我们的新 malloc() 很好地工作。 如果您想确保 malloc() 正在被使用,那么您应该通过向函数的入口点添加 write() 调用来进行测试。 我们的内存管理器在很多方面都还存在欠缺,但它可以有效地展示内存管理需要做什么事情。它的某些缺点包括: 由于它对系统断点(一个全局变量)进行操作,所以它不能与其他分配程序或者 mmap 一起使用。 当分配内存时,在最坏的情形下,它将不得不遍历 全部进程内存;其可能包括位于硬盘上的很多内存,这意味着操作系统将不得不花时间去向硬盘移入数据和从硬盘移出数据。 没有很好的内存不足处理方案( malloc 只假定内存分配是成功的)。 它没有实现很多其他的内存函数,比如 realloc()。 由于 sbrk() 可能会交回比我们请求的更多的内存,所以在堆(heap)的末端会遗漏一些内存。 虽然 is_available 标记只包含一位信息,但它要使用完整的 4-字节 的字。 分配程序不是线程安全的。 分配程序不能将空闲空间拼合为更大的内存块。 分配程序的过于简单的匹配算法会导致产生很多潜在的内存碎片。 我确信还有很多其他问题。这就是为什么它只是一个例子! 其他 malloc 实现 malloc() 的实现有很多,这些实现各有优点与缺点。在设计一个分配程序时,要面临许多需要折衷的选择,其包括: 分配的速度。 回收的速度。 有线程的环境的行为。 内存将要被用光时的行为。 局部缓存。 簿记(Bookkeeping)内存开销。 虚拟内存环境的行为。 小的或者大的对象。 实时保证。 每一个实现都有其自身的优缺点集合。在我们的简单的分配程序,分配非常慢,而回收非常快。另外,由于它在使用虚拟内存系统方面较差,所以它最适于处理大的对象。 还有其他许多分配程序可以使用。其包括: Doug Lea Malloc:Doug Lea Malloc 实际上是完整的一组分配程序,其包括 Doug Lea 的原始分配程序,GNU libc 分配程序和 ptmalloc。 Doug Lea 的分配程序有着与我们的版本非常类似的基本结构,但是它加入了索引,这使得搜索速度更快,并且可以将多个没有被使用的块组合为一个大的块。它还支持缓存,以便更快地再次使用最近释放的内存。 ptmalloc 是 Doug Lea Malloc 的一个扩展版本,支持多线程。在本文后面的 参考资料部分,有一篇描述 Doug Lea 的 Malloc 实现的文章。 BSD Malloc:BSD Malloc 是随 4.2 BSD 发行的实现,包含在 FreeBSD 之,这个分配程序可以从预先确实大小的对象构成的池分配对象。它有一些用于对象大小的 size 类,这些对象的大小为 2 的若干次幂减去某一常数。所以,如果您请求给定大小的一个对象,它就简单地分配一个与之匹配的 size 类。这样就提供了一个快速的实现,但是可能会浪费内存。在 参考资料部分,有一篇描述该实现的文章。 Hoard:编写 Hoard 的目标是使内存分配在多线程环境进行得非常快。因此,它的构造以锁的使用为心,从而使所有进程不必等待分配内存。它可以显著地加快那些进行很多分配和回收的多线程进程的速度。在 参考资料部分,有一篇描述该实现的文章。 众多可用的分配程序最有名的就是上述这些分配程序。如果您的程序有特别的分配需求,那么您可能更愿意编写一个定制的能匹配您的程序内存分配方式的分配程序。不过,如果不熟悉分配程序的设计,那么定制分配程序通常会带来比它们解决的问题更多的问题。要获得关于该主题的适当的介绍,请参阅 Donald Knuth 撰写的 The Art of Computer Programming Volume 1: Fundamental Algorithms 的第 2.5 节“Dynamic Storage Allocation”(请参阅 参考资料的链接)。它有点过时,因为它没有考虑虚拟内存环境,不过大部分算法都是基于前面给出的函数。 在 C++ ,通过重载 operator new(),您可以以每个类或者每个模板为单位实现自己的分配程序。在 Andrei Alexandrescu 撰写的 Modern C++ Design 的第 4 章(“Small Object Allocation”),描述了一个小对象分配程序(请参阅 参考资料的链接)。 基于 malloc() 的内存管理的缺点 不只是我们的内存管理器有缺点,基于 malloc() 的内存管理器仍然也有很多缺点,不管您使用的是哪个分配程序。对于那些需要保持长期存储的程序使用 malloc() 来管理内存可能会非常令人失望。如果您有大量的不固定的内存引用,经常难以知道它们何时被释放。生存期局限于当前函数的内存非常容易管理,但是对于生存期超出该范围的内存来说,管理内存则困难得多。而且,关于内存管理是由进行调用的程序还是由被调用的函数来负责这一问题,很多 API 都不是很明确。 因为管理内存的问题,很多程序倾向于使用它们自己的内存管理规则。C++ 的异常处理使得这项任务更成问题。有时好像致力于管理内存分配和清理的代码比实际完成计算任务的代码还要多!因此,我们将研究内存管理的其他选择。 回页首 半自动内存管理策略 引用计数 引用计数是一种 半自动(semi-automated)的内存管理技术,这表示它需要一些编程支持,但是它不需要您确切知道某一对象何时不再被使用。引用计数机制为您完成内存管理任务。 在引用计数,所有共享的数据结构都有一个域来包含当前活动“引用”结构的次数。当向一个程序传递一个指向某个数据结构指针时,该程序会将引用计数增加 1。实质上,您是在告诉数据结构,它正在被存储在多少个位置上。然后,当您的进程完成对它的使用后,该程序就会将引用计数减少 1。结束这个动作之后,它还会检查计数是否已经减到零。如果是,那么它将释放内存。 这样做的好处是,您不必追踪程序某个给定的数据结构可能会遵循的每一条路径。每次对其局部的引用,都将导致计数的适当增加或减少。这样可以防止在使用数据结构时释放该结构。不过,当您使用某个采用引用计数的数据结构时,您必须记得运行引用计数函数。另外,内置函数和第三方的库不会知道或者可以使用您的引用计数机制。引用计数也难以处理发生循环引用的数据结构。 要实现引用计数,您只需要两个函数 —— 一个增加引用计数,一个减少引用计数并当计数减少到零时释放内存。 一个示例引用计数函数集可能看起来如下所示: 清单 9. 基本的引用计数函数 /* Structure Definitions*/ /* Base structure that holds a refcount */ struct refcountedstruct { int refcount; } /* All refcounted structures must mirror struct * refcountedstruct for their first variables */ /* Refcount maintenance functions */ /* Increase reference count */ void REF(void *data) { struct refcountedstruct *rstruct; rstruct = (struct refcountedstruct *) data; rstruct->refcount++; } /* Decrease reference count */ void UNREF(void *data) { struct refcountedstruct *rstruct; rstruct = (struct refcountedstruct *) data; rstruct->refcount--; /* Free the structure if there are no more users */ if(rstruct->refcount == 0) { free(rstruct); } } REF 和 UNREF 可能会更复杂,这取决于您想要做的事情。例如,您可能想要为多线程程序增加锁,那么您可能想扩展 refcountedstruct,使它同样包含一个指向某个在释放内存之前要调用的函数的指针(类似于面向对象语言的析构函数 —— 如果您的结构包含这些指针,那么这是 必需的)。 当使用 REF 和 UNREF 时,您需要遵守这些指针的分配规则: UNREF 分配前左端指针(left-hand-side pointer)指向的值。 REF 分配后左端指针(left-hand-side pointer)指向的值。 在传递使用引用计数的结构的函数,函数需要遵循以下这些规则: 在函数的起始处 REF 每一个指针。 在函数的结束处 UNREF 第一个指针。 以下是一个使用引用计数的生动的代码示例: 清单 10. 使用引用计数的示例 /* EXAMPLES OF USAGE */ /* Data type to be refcounted */ struct mydata { int refcount; /* same as refcountedstruct */ int datafield1; /* Fields specific to this struct */ int datafield2; /* other declarations would go here as appropriate */ }; /* Use the functions in code */ void dosomething(struct mydata *data) { REF(data); /* Process data */ /* when we are through */ UNREF(data); } struct mydata *globalvar1; /* Note that in this one, we don't decrease the * refcount since we are maintaining the reference * past the end of the function call through the * global variable */ void storesomething(struct mydata *data) { REF(data); /* passed as a parameter */ globalvar1 = data; REF(data); /* ref because of Assignment */ UNREF(data); /* Function finished */ } 由于引用计数是如此简单,大部分程序员都自已去实现它,而不是使用库。不过,它们依赖于 malloc 和 free 等低层的分配程序来实际地分配和释放它们的内存。 在 Perl 等高级语言,进行内存管理时使用引用计数非常广泛。在这些语言,引用计数由语言自动地处理,所以您根本不必担心它,除非要编写扩展模块。由于所有内容都必须进行引用计数,所以这会对速度产生一些影响,但它极大地提高了编程的安全性和方便性。以下是引用计数的益处: 实现简单。 易于使用。 由于引用是数据结构的一部分,所以它有一个好的缓存位置。 不过,它也有其不足之处: 要求您永远不要忘记调用引用计数函数。 无法释放作为循环数据结构的一部分的结构。 减缓几乎每一个指针的分配。 尽管所使用的对象采用了引用计数,但是当使用异常处理(比如 try 或 setjmp()/ longjmp())时,您必须采取其他方法。 需要额外的内存来处理引用。 引用计数占用了结构的第一个位置,在大部分机器最快可以访问到的就是这个位置。 在多线程环境更慢也更难以使用。 C++ 可以通过使用 智能指针(smart pointers)来容忍程序员所犯的一些错误,智能指针可以为您处理引用计数等指针处理细节。不过,如果不得不使用任何先前的不能处理智能指针的代码(比如对 C 库的联接),实际上,使用它们的后果通实比不使用它们更为困难和复杂。因此,它通常只是有益于纯 C++ 项目。如果您想使用智能指针,那么您实在应该去阅读 Alexandrescu 撰写的 Modern C++ Design 一书的“Smart Pointers”那一章。 内存池 内存池是另一种半自动内存管理方法。内存池帮助某些程序进行自动内存管理,这些程序会经历一些特定的阶段,而且每个阶段都有分配给进程的特定阶段的内存。例如,很多网络服务器进程都会分配很多针对每个连接的内存 —— 内存的最大生存期限为当前连接的存在期。Apache 使用了池式内存(pooled memory),将其连接拆分为各个阶段,每个阶段都有自己的内存池。在结束每个阶段时,会一次释放所有内存。 在池式内存管理,每次内存分配都会指定内存池,从分配内存。每个内存池都有不同的生存期限。在 Apache ,有一个持续时间为服务器存在期的内存池,还有一个持续时间为连接的存在期的内存池,以及一个持续时间为请求的存在期的池,另外还有其他一些内存池。因此,如果我的一系列函数不会生成比连接持续时间更长的数据,那么我就可以完全从连接池分配内存,并知道在连接结束时,这些内存会被自动释放。另外,有一些实现允许注册 清除函数(cleanup functions),在清除内存池之前,恰好可以调用它,来完成在内存被清理前需要完成的其他所有任务(类似于面向对象的析构函数)。 要在自己的程序使用池,您既可以使用 GNU libc 的 obstack 实现,也可以使用 Apache 的 Apache Portable Runtime。GNU obstack 的好处在于,基于 GNU 的 Linux 发行版本默认会包括它们。Apache Portable Runtime 的好处在于它有很多其他工具,可以处理编写多平台服务器软件所有方面的事情。要深入了解 GNU obstack 和 Apache 的池式内存实现,请参阅 参考资料部分指向这些实现的文档的链接。 下面的假想代码列表展示了如何使用 obstack: 清单 11. obstack 的示例代码 #include #include /* Example code listing for using obstacks */ /* Used for obstack macros (xmalloc is a malloc function that exits if memory is exhausted */ #define obstack_chunk_alloc xmalloc #define obstack_chunk_free free /* Pools */ /* Only permanent allocations should go in this pool */ struct obstack *global_pool; /* This pool is for per-connection data */ struct obstack *connection_pool; /* This pool is for per-request data */ struct obstack *request_pool; void allocation_failed() { exit(1); } int main() { /* Initialize Pools */ global_pool = (struct obstack *) xmalloc (sizeof (struct obstack)); obstack_init(global_pool); connection_pool = (struct obstack *) xmalloc (sizeof (struct obstack)); obstack_init(connection_pool); request_pool = (struct obstack *) xmalloc (sizeof (struct obstack)); obstack_init(request_pool); /* Set the error handling function */ obstack_alloc_failed_handler = &allocation_failed; /* Server main loop */ while(1) { wait_for_connection(); /* We are in a connection */ while(more_requests_available()) { /* Handle request */ handle_request(); /* Free all of the memory allocated * in the request pool */ obstack_free(request_pool, NULL); } /* We're finished with the connection, time * to free that pool */ obstack_free(connection_pool, NULL); } } int handle_request() { /* Be sure that all object allocations are allocated * from the request pool */ int bytes_i_need = 400; void *data1 = obstack_alloc(request_pool, bytes_i_need); /* Do stuff to process the request */ /* return */ return 0; } 基本上,在操作的每一个主要阶段结束之后,这个阶段的 obstack 会被释放。不过,要注意的是,如果一个过程需要分配持续时间比当前阶段更长的内存,那么它也可以使用更长期限的 obstack,比如连接或者全局内存。传递给 obstack_free() 的 NULL 指出它应该释放 obstack 的全部内容。可以用其他的值,但是它们通常不怎么实用。 使用池式内存分配的益处如下所示: 应用程序可以简单地管理内存。 内存分配和回收更快,因为每次都是在一个池完成的。分配可以在 O(1) 时间内完成,释放内存池所需时间也差不多(实际上是 O(n) 时间,不过在大部分情况下会除以一个大的因数,使其变成 O(1))。 可以预先分配错误处理池(Error-handling pools),以便程序在常规内存被耗尽时仍可以恢复。 有非常易于使用的标准实现。 池式内存的缺点是: 内存池只适用于操作可以分阶段的程序。 内存池通常不能与第三方库很好地合作。 如果程序的结构发生变化,则不得不修改内存池,这可能会导致内存管理系统的重新设计。 您必须记住需要从哪个池进行分配。另外,如果在这里出错,就很难捕获该内存池。 回页首 垃圾收集 垃圾收集(Garbage collection)是全自动地检测并移除不再使用的数据对象。垃圾收集器通常会在当可用内存减少到少于一个具体的阈值时运行。通常,它们以程序所知的可用的一组“基本”数据 —— 栈数据、全局变量、寄存器 —— 作为出发点。然后它们尝试去追踪通过这些数据连接到每一块数据。收集器找到的都是有用的数据;它没有找到的就是垃圾,可以被销毁并重新使用这些无用的数据。为了有效地管理内存,很多类型的垃圾收集器都需要知道数据结构内部指针的规划,所以,为了正确运行垃圾收集器,它们必须是语言本身的一部分。 收集器的类型 复制(copying): 这些收集器将内存存储器分为两部分,只允许数据驻留在其一部分上。它们定时地从“基本”的元素开始将数据从一部分复制到另一部分。内存新近被占用的部分现在成为活动的,另一部分上的所有内容都认为是垃圾。另外,当进行这项复制操作时,所有指针都必须被更新为指向每个内存条目的新位置。因此,为使用这种垃圾收集方法,垃圾收集器必须与编程语言集成在一起。 标记并清理(Mark and sweep):每一块数据都被加上一个标签。不定期的,所有标签都被设置为 0,收集器从“基本”的元素开始遍历数据。当它遇到内存时,就将标签标记为 1。最后没有被标记为 1 的所有内容都认为是垃圾,以后分配内存时会重新使用它们。 增量的(Incremental):增量垃圾收集器不需要遍历全部数据对象。因为在收集期间的突然等待,也因为与访问所有当前数据相关的缓存问题(所有内容都不得不被页入(page-in)),遍历所有内存会引发问题。增量收集器避免了这些问题。 保守的(Conservative):保守的垃圾收集器在管理内存时不需要知道与数据结构相关的任何信息。它们只查看所有数据类型,并假定它们 可以全部都是指针。所以,如果一个字节序列可以是一个指向一块被分配的内存的指针,那么收集器就将其标记为正在被引用。有时没有被引用的内存会被收集,这样会引发问题,例如,如果一个整数域包含一个值,该值是已分配内存的地址。不过,这种情况极少发生,而且它只会浪费少量内存。保守的收集器的优势是,它们可以与任何编程语言相集成。 Hans Boehm 的保守垃圾收集器是可用的最流行的垃圾收集器之一,因为它是免费的,而且既是保守的又是增量的,可以使用 --enable-redirect-malloc 选项来构建它,并且可以将它用作系统分配程序的简易替代者(drop-in replacement)(用 malloc/ free 代替它自己的 API)。实际上,如果这样做,您就可以使用与我们在示例分配程序所使用的相同的 LD_PRELOAD 技巧,在系统上的几乎任何程序启用垃圾收集。如果您怀疑某个程序正在泄漏内存,那么您可以使用这个垃圾收集器来控制进程。在早期,当 Mozilla 严重地泄漏内存时,很多人在其使用了这项技术。这种垃圾收集器既可以在 Windows® 下运行,也可以在 UNIX 下运行。 垃圾收集的一些优点: 您永远不必担心内存的双重释放或者对象的生命周期。 使用某些收集器,您可以使用与常规分配相同的 API。 其缺点包括: 使用大部分收集器时,您都无法干涉何时释放内存。 在多数情况下,垃圾收集比其他形式的内存管理更慢。 垃圾收集错误引发的缺陷难于调试。 如果您忘记将不再使用的指针设置为 null,那么仍然会有内存泄漏。 回页首 结束语 一切都需要折衷:性能、易用、易于实现、支持线程的能力等,这里只列出了其的一些。为了满足项目的要求,有很多内存管理模式可以供您使用。每种模式都有大量的实现,各有其优缺点。对很多项目来说,使用编程环境默认的技术就足够了,不过,当您的项目有特殊的需要时,了解可用的选择将会有帮助。下表对比了本文涉及的内存管理策略。 表 1. 内存分配策略的对比 策略 分配速度 回收速度 局部缓存 易用性 通用性 实时可用 SMP 线程友好 定制分配程序 取决于实现 取决于实现 取决于实现 很难 无 取决于实现 取决于实现 简单分配程序 内存使用少时较快 很快 差 容易 高 否 否 GNU malloc 容易 高 否 Hoard 容易 高 否 是 引用计数 N/A N/A 非常好 是(取决于 malloc 实现) 取决于实现 池 非常快 极好 是(取决于 malloc 实现) 取决于实现 垃圾收集 (进行收集时慢) 否 几乎不 增量垃圾收集 否 几乎不 增量保守垃圾收集 容易 高 否 几乎不 参考资料 您可以参阅本文在 developerWorks 全球站点上的 英文原文。 Web 上的文档 GNU C Library 手册的 obstacks 部分 提供了 obstacks 编程接口。 Apache Portable Runtime 文档 描述了它们的池式分配程序的接口。 基本的分配程序 Doug Lea 的 Malloc 是最流行的内存分配程序之一。 BSD Malloc 用于大部分基于 BSD 的系统。 ptmalloc 起源于 Doug Lea 的 malloc,用于 GLIBC 之。 Hoard 是一个为多线程应用程序优化的 malloc 实现。 GNU Memory-Mapped Malloc(GDB 的组成部分) 是一个基于 mmap() 的 malloc 实现。 池式分配程序 GNU Obstacks(GNU Libc 的组成部分)是安装最多的池式分配程序,因为在每一个基于 glibc 的系统都有它。 Apache 的池式分配程序(Apache Portable Runtime ) 是应用最为广泛的池式分配程序。 Squid 有其自己的池式分配程序。 NetBSD 也有其自己的池式分配程序。 talloc 是一个池式分配程序,是 Samba 的组成部分。 智能指针和定制分配程序 Loki C++ Library 有很多为 C++ 实现的通用模式,包括智能指针和一个定制的小对象分配程序。 垃圾收集器 Hahns Boehm Conservative Garbage Collector 是最流行的开源垃圾收集器,它可以用于常规的 C/C++ 程序。 关于现代操作系统的虚拟内存的文章 Marshall Kirk McKusick 和 Michael J. Karels 合著的 A New Virtual Memory Implementation for Berkeley UNIX 讨论了 BSD 的 VM 系统。 Mel Gorman's Linux VM Documentation 讨论了 Linux VM 系统。 关于 malloc 的文章 Poul-Henning Kamp 撰写的 Malloc in Modern Virtual Memory Environments 讨论的是 malloc 以及它如何与 BSD 虚拟内存交互。 Berger、McKinley、Blumofe 和 Wilson 合著的 Hoard -- a Scalable Memory Allocator for Multithreaded Environments 讨论了 Hoard 分配程序的实现。 Marshall Kirk McKusick 和 Michael J. Karels 合著的 Design of a General Purpose Memory Allocator for the 4.3BSD UNIX Kernel 讨论了内核级的分配程序。 Doug Lea 撰写的 A Memory Allocator 给出了一个关于设计和实现分配程序的概述,其包括设计选择与折衷。 Emery D. Berger 撰写的 Memory Management for High-Performance Applications 讨论的是定制内存管理以及它如何影响高性能应用程序。 关于定制分配程序的文章 Doug Lea 撰写的 Some Storage Management Techniques for Container Classes 描述的是为 C++ 类编写定制分配程序。 Berger、Zorn 和 McKinley 合著的 Composing High-Performance Memory Allocators 讨论了如何编写定制分配程序来加快具体工作的速度。 Berger、Zorn 和 McKinley 合著的 Reconsidering Custom Memory Allocation 再次提及了定制分配的主题,看是否真正值得为其费心。 关于垃圾收集的文章 Paul R. Wilson 撰写的 Uniprocessor Garbage Collection Techniques 给出了垃圾收集的一个基本概述。 Benjamin Zorn 撰写的 The Measured Cost of Garbage Collection 给出了关于垃圾收集和性能的硬数据(hard data)。 Hans-Juergen Boehm 撰写的 Memory Allocation Myths and Half-Truths 给出了关于垃圾收集的神话(myths)。 Hans-Juergen Boehm 撰写的 Space Efficient Conservative Garbage Collection 是一篇描述他的用于 C/C++ 的垃圾收集器的文章。 Web 上的通用参考资料 内存管理参考 有很多关于内存管理参考资料和技术文章的链接。 关于内存管理和内存层级的 OOPS Group Papers 是非常好的一组关于此主题的技术文章。 C++ 的内存管理讨论的是为 C++ 编写定制的分配程序。 Programming Alternatives: Memory Management 讨论了程序员进行内存管理时的一些选择。 垃圾收集 FAQ 讨论了关于垃圾收集您需要了解的所有内容。 Richard Jones 的 Garbage Collection Bibliography 有指向任何您想要的关于垃圾收集的文章的链接。 书籍 Michael Daconta 撰写的 C++ Pointers and Dynamic Memory Management 介绍了关于内存管理的很多技术。 Frantisek Franek 撰写的 Memory as a Programming Concept in C and C++ 讨论了有效使用内存的技术与工具,并给出了在计算机编程应当引起注意的内存相关错误的角色。 Richard Jones 和 Rafael Lins 合著的 Garbage Collection: Algorithms for Automatic Dynamic Memory Management 描述了当前使用的最常见的垃圾收集算法。 在 Donald Knuth 撰写的 The Art of Computer Programming 第 1 卷 Fundamental Algorithms 的第 2.5 节“Dynamic Storage Allocation”,描述了实现基本的分配程序的一些技术。 在 Donald Knuth 撰写的 The Art of Computer Programming 第 1 卷 Fundamental Algorithms 的第 2.3.5 节“Lists and Garbage Collection”,讨论了用于列表的垃圾收集算法。 Andrei Alexandrescu 撰写的 Modern C++ Design 第 4 章“Small Object Allocation”描述了一个比 C++ 标准分配程序效率高得多的一个高速小对象分配程序。 Andrei Alexandrescu 撰写的 Modern C++ Design 第 7 章“Smart Pointers”描述了在 C++ 智能指针的实现。 Jonathan 撰写的 Programming from the Ground Up 第 8 章“Intermediate Memory Topics”有本文使用的简单分配程序的一个汇编语言版本。 来自 developerWorks 自我管理数据缓冲区内存 (developerWorks,2004 年 1 月)略述了一个用于管理内存的自管理的抽象数据缓存器的伪 C (pseudo-C)实现。 A framework for the user defined malloc replacement feature (developerWorks,2002 年 2 月)展示了如何利用 AIX 的一个工具,使用自己设计的内存子系统取代原有的内存子系统。 掌握 Linux 调试技术 (developerWorks,2002 年 8 月)描述了可以使用调试方法的 4 种不同情形:段错误、内存溢出、内存泄漏和挂起。 在 处理 Java 程序的内存漏洞 (developerWorks,2001 年 2 月),了解导致 Java 内存泄漏的原因,以及何时需要考虑它们。 在 developerWorks Linux 专区,可以找到更多为 Linux 开发人员准备的参考资料。 从 developerWorks 的 Speed-start your Linux app 专区,可以下载运行于 Linux 之上的 IBM 间件产品的免费测试版本,其包括 WebSphere® Studio Application Developer、WebSphere Application Server、DB2® Universal Database、Tivoli® Access Manager 和 Tivoli Directory Server,查找 how-to 文章和技术支持。 通过参与 developerWorks blogs 加入到 developerWorks 社区。 可以在 Developer Bookstore Linux 专栏定购 打折出售的 Linux 书籍。 关于作者 Jonathan Bartlett 是 Programming from the Ground Up 一书的作者,这本书介绍的是 Linux 汇编语言编程。Jonathan Bartlett 是 New Media Worx 的总开发师,负责为客户开发 Web、视频、kiosk 和桌面应用程序。您可以通过 [email protected] 与 Jonathan 联系。
JAVA相关基础知识 1、面向对象的特征有哪些方面 1.抽象: 抽象就是忽略一个主题与当前目标无关的那些方面,以便更充分地注意与当前目标有关的方面。抽象并不打算了解全部问题,而只是选择其的一部分,暂时不用部分细节。抽象包括两个方面,一是过程抽象,二是数据抽象。 2.继承: 继承是一种联结类的层次模型,并且允许和鼓励类的重用,它提供了一种明确表述共性的方法。对象的一个新类可以从现有的类派生,这个过程称为类继承。新类继承了原始类的特性,新类称为原始类的派生类(子类),而原始类称为新类的基类(父类)。派生类可以从它的基类那里继承方法和实例变量,并且类可以修改或增加新的方法使之更适合特殊的需要。 3.封装: 封装是把过程和数据包围起来,对数据的访问只能通过已定义的界面。面向对象计算始于这个基本概念,即现实世界可以被描绘成一系列完全自治、封装的对象,这些对象通过一个受保护的接口访问其他对象。 4. 多态性: 多态性是指允许不同类的对象对同一消息作出响应。多态性包括参数化多态性和包含多态性。多态性语言具有灵活、抽象、行为共享、代码共享的优势,很好的解决了应用程序函数同名问题。 2、String是最基本的数据类型吗? 基本数据类型包括byte、int、char、long、float、double、boolean和short。 java.lang.String类是final类型的,因此不可以继承这个类、不能修改这个类。为了提高效率节省空间,我们应该用StringBuffer类 3、int 和 Integer 有什么区别 Java 提供两种不同的类型:引用类型和原始类型(或内置类型)。Int是java的原始数据类型,Integer是java为int提供的封装类。Java为每个原始类型提供了封装类。 原始类型封装类 booleanBoolean charCharacter byteByte shortShort intInteger longLong floatFloat doubleDouble 引用类型和原始类型的行为完全不同,并且它们具有不同的语义。引用类型和原始类型具有不同的特征和用法,它们包括:大小和速度问题,这种类型以哪种类型的数据结构存储,当引用类型和原始类型用作某个类的实例数据时所指定的缺省值。对象引用实例变量的缺省值为 null,而原始类型实例变量的缺省值与它们的类型有关。 4、String 和StringBuffer的区别 JAVA平台提供了两个类:String和StringBuffer,它们可以储存和操作字符串,即包含多个字符的字符数据。这个String类提供了数值不可改变的字符串。而这个StringBuffer类提供的字符串进行修改。当你知道字符数据要改变的时候你就可以使用StringBuffer。典型地,你可以使用StringBuffers来动态构造字符数据。 5、运行时异常与一般异常有何异同? 异常表示程序运行过程可能出现的非正常状态,运行时异常表示虚拟机的通常操作可能遇到的异常,是一种常见运行错误。java编译器要求方法必须声明抛出可能发生的非运行时异常,但是并不要求必须声明抛出未被捕获的运行时异常。 6、说出Servlet的生命周期,并说出Servlet和CGI的区别。 Servlet被服务器实例化后,容器运行其init方法,请求到达时运行其service方法,service方法自动派遣运行与请求对应的doXXX方法(doGet,doPost)等,当服务器决定将实例销毁的时候调用其destroy方法。 与cgi的区别在于servlet处于服务器进程,它通过多线程方式运行其service方法,一个实例可以服务于多个请求,并且其实例一般不会销毁,而CGI对每个请求都产生新的进程,服务完成后就销毁,所以效率上低于servlet。 7、说出ArrayList,Vector, LinkedList的存储性能和特性 ArrayList和Vector都是使用数组方式存储数据,此数组元素数大于实际存储的数据以便增加和插入元素,它们都允许直接按序号索引元素,但是插入元素要涉及数组元素移动等内存操作,所以索引数据快而插入数据慢,Vector由于使用了synchronized方法(线程安全),通常性能上较ArrayList差,而LinkedList使用双向链表实现存储,按序号索引数据需要进行前向或后向遍历,但是插入数据时只需要记录本项的前后项即可,所以插入速度较快。 8、EJB是基于哪些技术实现的?并说出SessionBean和EntityBean的区别,StatefulBean和StatelessBean的区别。 EJB包括Session Bean、Entity Bean、Message Driven Bea

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值