def heapsort(L) {
N = length(L);
A = newvect(N+1);
for ( I = 1; I <= N; I++, L = cdr(L) ) A[I] = car(L);
/* heap construction; A[[N/2]+1],...,A[N] are leaves */
for ( K = idiv(N,2); K >= 1; K-- ) downheap(A,K,N);
/* retirement and promotion */
for ( K = N; K >= 2; K-- ) {
swap(A,1,K);
downheap(A,1,K-1);
}
for ( I = 1, R = []; I <= N; I++ ) R = cons(A[I],R);
return R;
}
このプログラムは, 与えられたリスト
をソートしたリストを返す. ヒー
プの構成は, 子を持つ最後の要素である
から順に,
その要素の子孫からなる 2 分木に対して downheap() を呼び出すこと
で行われる. 現在選ばれている要素に対し, 子を根とする木がヒープをなすことは
数学的帰納法による.
以降は葉なので, それらを根とする
木に対しては自動的にヒープ条件がなりたっていることから帰納法の最初の
ステップが正当であることがわかる.
出来上がったヒープに対して, 根と, その時点における最後尾の要素を 入れ換えて, downheap() を呼び出すことで, ヒープ条件を保ち ながら要素の個数を一つずつ減らすことができる. さらに, 根はその ヒープの最大要素で, それが順に空いた場所に移されるので, 配列 としては, 後ろから大きい順に整列することになる.
注意:
クイックソートは平均
, 最悪
のアルゴリズムで,
ヒープソートは最悪でも
だが通常はクイックソートが
使われる場合が多い. これは, クイックソートに比べてヒープソートが
複雑であるため, ほとんどの入力に対してはクイックソートの方が
実際には高速なためである. しかし, 前節, 本節で与えたプログラム
例がそれぞれ最良とは限らないので, 双方比較してどちらが高速か
分からない. 興味がある人は, 同じ例で比較してみたり, あるいは
より効率の高い実装を行ってみるとよい.