Minggu, 05 Mei 2013

Ahli Matematika J.W. Cooley dan J.Tukey



James William Cooley

James William Cooley (lahir 1926) adalah seorang matematikawan Amerika. Cooley menerima B.A. sebuah gelar pada tahun 1949 dari Manhattan College, Bronx, NY, gelar MA pada tahun 1951 dari Universitas Columbia, New York, NY, dan Ph.D. gelar tahun 1961 dalam matematika terapan dari Universitas Columbia. Dia adalah seorang programmer komputer John von Neumann di Institute for Advanced Study, Princeton, NJ, 1953-1956. Dia bekerja pada perhitungan kuantum mekanik di Courant Institute, New York University, 1956-1962, ketika ia bergabung dengan Staf Penelitian di Pusat Penelitian Watson IBM, Yorktown Heights, NY. Setelah pensiun dari IBM pada tahun 1991, ia bergabung dengan Departemen Teknik Elektro, Universitas Rhode Island, Kingston, di mana ia menjabat di fakultas dari program teknik komputer.


Kontribusi yang paling signifikan bagi dunia matematika dan pemrosesan sinyal digital adalah Fast Fourier transform, yang dikembangkan bersama dengan John Tukey (lihat algoritma Cooley-Tukey FFT) saat bekerja untuk divisi riset IBM pada tahun 1965.

Motivasi untuk itu diberikan oleh Dr Richard L. Garwin di IBM Watson Research yang prihatin memverifikasi perjanjian senjata nuklir dengan Uni Soviet untuk pembicaraan GARAM. Garwin berpikir bahwa jika ia memiliki sangat banyak Fourier Transform cepat ia bisa menanam sensor di tanah di negara-negara sekitarnya Uni Soviet. Dia menyarankan ide tentang bagaimana transformasi Fourier dapat diprogram untuk menjadi jauh lebih cepat untuk kedua Cooley dan Tukey. Mereka melakukan pekerjaan, sensor yang ditanam, dan ia dapat menemukan ledakan nuklir yang berjarak 15 kilometer dari mana mereka terjadi.

J.W. Cooley adalah anggota Komite Signal Processing Digital dari IEEE, dan kemudian mendapat beasiswa dari IEEE untuk karyanya pada FFT. Pada tahun 2002 ia menerima IEEE Jack Kilby S. Signal Processing Medal. Dia sangat berkontribusi pada pembentukan terminologi dalam pemrosesan sinyal digital.
Publikasi

    James W. Cooley & John W. Tukey (1965): "Suatu algoritma untuk perhitungan mesin seri Fourier kompleks", Matematika. Comput. 19, 297-301.
    Cooley, James W., Timothy M. Toolan dan Donald W. Tufts. "Sebuah Subspace Tracking Algoritma Menggunakan Fast Fourier Transform." IEEE Signal Processing Letters. 11 (1) :30-32. Januari 2004.
    Nyata, Edward C., Donald W. Tufts dan James W. Cooley. "Dua Algoritma untuk Fast Perkiraan Subruang Tracking." Transaksi IEEE pada Signal Processing. 47 (7) :1936-1945. Juli 1999.
    Tufts, D. W., E. C. Riil dan J. W. Cooley. "Cepat Perkiraan Subspace Tracking (CEPAT)." IN: Prosiding IEEE Konferensi Internasional tentang Akustik 1997, Ucapan, dan Signal Processing. IEEE. 1997. Saya :547-550.


John Wilder Tukey

John Wilder Tukey (16 Juni 1915 - 26 Juli, 2000) adalah seorang matematikawan Amerika terkenal karena pengembangan algoritma FFT dan box plot.
Isi

Biografi

Tukey lahir di New Bedford, Massachusetts pada tahun 1915, dan memperoleh gelar BA pada tahun 1936 dan M.Sc. pada tahun 1937, dalam bidang kimia, dari Brown University, sebelum pindah ke Princeton University di mana ia menerima gelar Ph.D. dalam matematika.

Selama Perang Dunia II, Tukey bekerja di Fire Control Research Office dan berkolaborasi dengan Samuel Wilks dan William Cochran. Setelah perang, ia kembali ke Princeton, membagi waktunya antara universitas dan AT & T Bell Laboratories.

Di antara banyak kontribusi untuk masyarakat sipil, Tukey bertugas di komite Asosiasi Statistik Amerika yang menghasilkan sebuah laporan menantang kesimpulan dari Laporan Kinsey, Masalah Statistik Laporan Kinsey pada Perilaku Seksual dalam Pria Manusia.

Dia dianugerahi Medali Kehormatan IEEE pada tahun 1982 "Untuk kontribusi untuk analisis spektral proses acak dan Fourier Transform (FFT) algoritma cepat."

Tukey pensiun pada tahun 1985. Dia meninggal di New Brunswick, New Jersey pada 26 Juli 2000.
Kontribusi ilmiah

Pada awal kariernya Tukey bekerja pada pengembangan metode statistik untuk komputer di Bell Labs di mana ia menciptakan istilah "bit".

Kepentingan statistik nya banyak dan beragam. Dia diingat karena perkembangannya dengan James Cooley dari algoritma Cooley-Tukey FFT. Pada tahun 1970, ia memberikan kontribusi signifikan terhadap apa yang sekarang dikenal sebagai pisau lipat estimasi-juga disebut Quenouille-Tukey berlipat. Dia memperkenalkan box plot dalam bukunya tahun 1977, "Analisis Data eksplorasi".

Uji jarak Tukey, distribusi lambda Tukey, uji Tukey dari aditivitas dan lemma Tukey semua menanggung nama-Nya. Dia juga pencipta beberapa metode yang kurang dikenal seperti trimean dan median-median line, alternatif mudah untuk regresi linier.

Pada tahun 1974, ia mengembangkan, dengan Jerome H. Friedman, konsep mengejar proyeksi.

Praktek statistik

Dia juga memberikan kontribusi untuk praktek statistik dan mengartikulasikan perbedaan penting antara eksplorasi analisis data dan analisis data konfirmasi, percaya bahwa banyak metodologi statistik ditempatkan terlalu besar penekanan pada yang terakhir.

Meskipun ia percaya pada utilitas memisahkan dua jenis analisis, ia menunjukkan bahwa kadang-kadang, terutama dalam ilmu pengetahuan alam, ini adalah bermasalah dan disebut situasi seperti ilmu nyaman.
Istilah statistik

Tukey diciptakan istilah statistik banyak yang telah menjadi bagian dari penggunaan umum, tetapi dua coinages paling terkenal dikaitkan dengannya berhubungan dengan ilmu komputer.

Ketika bekerja dengan John von Neumann pada desain komputer awal, Tukey memperkenalkan kata "bit" sebagai kontraksi dari "digit biner". Istilah "bit" pertama kali digunakan dalam sebuah artikel oleh Claude Shannon pada tahun 1948.

Istilah "perangkat lunak", yang Paulus Niquette mengklaim ia menciptakan pada tahun 1953, pertama kali digunakan di cetak oleh Tukey dalam sebuah artikel di American Bulanan matematika tahun 1958, dan dengan demikian beberapa atribut istilah kepadanya. Itu 1958 penggunaan pertama dan atribusi dipertanyakan, mengingat bahwa Prosiding Simposium Nasional Kedua di Quality Control dan Keandalan dalam Elektronika: Washington, DC, 09-10 Januari 1956, diakses pada Hathi Trust, berisi terjadinya lunak jangka .

Tanda kutip

    Jika kita butuh saran singkat dari apa eksplorasi analisis data, saya akan menyarankan bahwa

        Ini adalah sikap DAN
        Sebuah fleksibilitas DAN
        Beberapa kertas grafik (atau transparansi, atau keduanya).

    Tidak ada katalog teknik dapat menyampaikan kesediaan untuk mencari apa yang dapat dilihat, apakah atau tidak diantisipasi. Namun ini adalah inti dari eksplorasi analisis data. Grafik kertas - dan transparansi - berada di sana, bukan sebagai suatu teknik, melainkan sebagai pengakuan bahwa mata-gambar memeriksa adalah penemu terbaik yang kita miliki dari sesuatu yang tak terduga.

    AD Gordon ditawarkan berikut ringkasan prinsip Tukey untuk praktek statistik:

    ... kegunaan dan keterbatasan statistik matematika, pentingnya memiliki metode analisis statistik yang kuat untuk pelanggaran asumsi yang mendasari penggunaannya, kebutuhan untuk mengumpulkan pengalaman perilaku spesifik metode analisis dalam rangka memberikan panduan tentang penggunaan; pentingnya membiarkan kemungkinan data yang mempengaruhi pilihan metode yang mereka dianalisis, kebutuhan untuk statistik untuk menolak peran 'wali kebenaran terbukti', dan untuk menolak upaya untuk menyediakan sekali-untuk-semua solusi dan rapi atas -unifications subjek, sifat iteratif analisis data, implikasi dari peningkatan daya, ketersediaan dan murahnya fasilitas komputasi, pelatihan statistik.

    Jauh lebih baik jawaban perkiraan atas pertanyaan yang tepat, yang sering kabur, dari satu jawaban yang tepat untuk pertanyaan yang salah, yang selalu dapat dibuat tepat.
    Sekali statistik waktu hanya dieksplorasi. Kemudian mereka belajar untuk mengkonfirmasi persis - untuk mengkonfirmasi beberapa hal dengan tepat, masing-masing dalam keadaan yang sangat spesifik. Saat mereka menekankan konfirmasi yang tepat, teknik mereka pasti menjadi kurang fleksibel. Sambungan dari teknik yang paling digunakan dengan wawasan masa lalu melemah. Apa pun yang prosedur konfirmasi tidak secara eksplisit melekat itu mencela sebagai 'statistik deskriptif belaka', tidak peduli berapa banyak kita telah belajar dari itu.
    Tidak ada data yang dapat ditampilkan dalam sebuah diagram lingkaran, yang tidak dapat ditampilkan LEBIH BAIK dalam beberapa jenis lain dari tabel.

Publikasi

    Andrews, David F, Peter J Bickel, Frank R Hampel, Peter J Huber, WH Rogers & John W Tukey (1972). Perkiraan Kuat lokasi: survei dan uang muka. Princeton University Press. ISBN 0-691-08113-1. OCLC 369.963.
    Basford, Kaye E & John W Tukey (1998). Analisis grafis dari data MULTIRESPON. Chapman & Hall / CRC. ISBN 0-8493-0384-2. OCLC 154.674.707.
    Blackman, R & B John W Tukey (1959). Pengukuran spektrum daya dari sudut pandang teknik komunikasi. Dover Publications. ISBN 0-486-60507-8.
    Cochran, William G, Frederick Mosteller & John W Tukey (1954). Masalah statistik laporan Kinsey pada perilaku seksual pada pria manusia. Jurnal dari Asosiasi Statistik Amerika.
    Hoaglin, David C, Frederick Mosteller & John W Tukey (eds) (1983). Memahami Kuat dan Exploratory Data Analysis. Wiley. ISBN 0-471-09777-2. OCLC 8.495.063.
    Hoaglin, David C, Frederick Mosteller & John W Tukey (eds) (1985). Menjelajahi Data Tabel, Tren dan Bentuk. Wiley. ISBN 0-471-09776-4. OCLC 11.550.398.
    Hoaglin, David C, Frederick Mosteller & John W Tukey (eds) (1991). Dasar-dasar eksplorasi analisis varians. Wiley. ISBN 0-471-52735-1. OCLC 23.180.322.
    Morganthaler, Stephan & John W Tukey (eds) (1991). Configural polysampling: rute untuk ketahanan praktis. Wiley. ISBN 0-471-52372-0. OCLC 22.381.036.
    Mosteller, Frederick & John W Tukey (1977). Analisis data dan regresi: kursus kedua dalam statistik. Addison-Wesley. ISBN 0-201-04854-X. OCLC 3.235.470.
    Tukey, John W (1940). Konvergensi dan Keseragaman Topologi. Princeton University Press. ISBN 0-691-09568-X. OCLC 227.948.615.
    Tukey, John W (1977). Exploratory Data Analysis. Addison-Wesley. ISBN 0-201-07616-0. OCLC 3.058.187.
    Tukey, John W; Ian C Ross, Verna Bertrand (1973 -). Indeks statistik dan probabilitas. R & D Press. ISBN 0-88274-001-6. OCLC 745.715.

Kumpulan karya John W Tukey, diedit oleh William S Cleveland

    Brillinger, David R (ed) (1984). Volume I: Time series, 1949-1964. Wadsworth. ISBN 0-534-03303-2. OCLC 10.998.116.
    Brillinger, David R (ed) (1985). Volume II: Time series, 1965-1984. Wadsworth. ISBN 0-534-03304-0. OCLC 159.731.367.
    Jones, Lyle V (ed) (1985). Volume III: Falsafah dan analisis data, 1949-1964. Wadsworth & Brooks / Cole. ISBN 0-534-03305-9. OCLC 159.731.367.
    Jones, Lyle V (ed) (1986). Volume IV: Falsafah dan analisis data, 1965-1986. Wadsworth & Brooks / Cole. ISBN 0-534-05101-4. OCLC 165.832.503.
    Cleveland, William S (ed) (1988). Volume V: Graphics, 1965-1985. Wadsworth & Brooks / Cole. ISBN 0-534-05102-2. OCLC 230.023.465.
    Mallows, Colin L (ed) (1990). Volume VI: Lebih matematika, 1938-1984. Wadsworth & Brooks / Cole. ISBN 0-534-05103-0. OCLC 232.966.724.
    Cox, David R (ed) (1992). Volume VII: Faktorial dan ANOVA, 1949-1962. Wadsworth & Brooks / Cole. ISBN 0-534-05104-9. OCLC 165.366.083.
    Braun, Henry I (ed) (1994). Volume VIII: Beberapa perbandingan, 1949-1983. Chapman & Hall / CRC. ISBN 0-412-05121-4. OCLC 165.099.761.


John Tukey 's orang tua, Ralph H Tukey dan Adah M Tukey, John telah diakui bahwa potensi besar sementara dia masih hanya anak, sehingga dia diatur untuk mendapatkan pelayanan pendidikan di rumah daripada di sekolah. Hal ini dilakukan karena orang tuanya sendiri adalah guru sekolah yang dilatih di klasik. Bahkan ia Yohanes ibu Adah yang melakukan sebagian besar guru dari anaknya, karena sebagai perempuan menikah, ia dilarang dari bekerja sebagai guru di Massachusetts pada waktu itu. Hal ini juga merupakan pendidikan yang sangat dipengaruhi Yohanes sepanjang hidupnya:
Pendidikan mereka adalah metode untuk menanggapi permintaan John dengan memberikan petunjuk dan menanyakan pertanyaan lebih lanjut daripada memberikan jawaban langsung, suatu karakteristik yang diwarisi John dan digunakan di seluruh karirnya.

John juga memiliki manfaat yang sangat baik perpustakaan umum di New Bedford yang dimiliki bahkan jurnal seperti Jurnal American Chemical Society dan Transaksi matematika dari Amerika Serikat. Dia dapat itu untuk mengambil pendidikan ke tingkat tinggi sebelum masuk universitas . Nya pendidikan formal mulai hanya ketika dia masuk Brown University di Providence, Rhode Island, untuk belajar matematika dan kimia.

Setelah Brown Universitas diberikan kepadanya Ijazah Sarjana Muda Kimia di 1936 dan Magister dalam kimia pada tahun berikutnya, Tukey pergi ke Princeton University di 1937 dan berminat untuk belajar untuk doktor dalam kimia. Bahkan ia belajar matematika dan kimia keduanya di tahun pertama tetapi telah kecewa Princeton menemukan bahwa dia tidak memungkinkan untuk bertindak sebagai asisten laboratorium kimia seperti dia telah dilakukan di Brown. Pada waktu selama beberapa tahun ini dia membuat kelancaran transisi dari kimia untuk matematika dan ikut ujian kualifikasi PhD dalam matematika pada tahun 1938. Tukey penelitian ini diawasi oleh Lefschetz dan dia menerima dia doktor di tahun 1939 untuk disertasi Denumerability di topologi yang diterbitkan tahun 1940 sebagai Convergence dan keseragaman dalam topologi. Dia telah tiga makalah telah dipublikasikan sebelum ia telah diberikan dan doktor, setelah lulus, ia diangkat sebagai pengajar di Princeton.
Eksternal, ada untuk memainkan peran penting dalam arah Tukey's karir terutama akibat dia bergabung dalam Pengendalian Kebakaran Penelitian kantor untuk berkontribusi terhadap upaya perang. Ini judul Mei membingungkan pembaca modern untuk penelitian tidak berurusan dengan 'api' sebagai dalam pembakaran, tetapi 'api' sebagai studi pada testing. Pekerjaan yang terlibat di sini dan statistik Tukey dengan cepat menemukan pekerjaan sangat banyak untuk kesukaan dia:
Kepala sekolah ada masalah matematika, melibatkan ilmu balistik, dan artileri meriam kontrol, rentang menemukan, menghitung lead untuk pindah sasaran dan sebagainya. ... ada saran ia mungkin terlibat dalam kode melanggar.

Terdapat statistik lain di Princeton, juga memberikan kontribusi terhadap upaya perang, khususnya Wilks dan Cochran, dan Tukey segera mulai bertukar ide dengan orang-orang ini.
Ketika Perang Dunia II berakhir pada 1945 Wilks, dengan waktu ini tentang Tukey's statistik bakat luar biasa, dia ditawarkan sebuah statistik di dalam departemen matematika di Princeton. Namun satu pos tidak cukup untuk menyerap energi dan itu, juga di 1945, Tukey bergabung dengan AT & T Bell Laboratories di mana temannya termasuk Shewhart, Hamming dan Shannon. Dia juga yang menghabiskan waktu jumlah besar di Washington pada pemerintah bisnis. Hanya workaholic seperti Tukey dapat diputar tersebut memiliki peran besar dalam semua tiga kegiatan tersebut.

Di tahun 1950 Tukey menikah Elizabeth Louise RAPP yang, setelah perkawinan mereka, membuat karir sebagai barang antik agen. Mereka tidak memiliki anak tetapi Elizabeth's saudara Paulis telah menikah dengan Frank Anscombe yang juga seorang ahli statistik yang kadang-kadang bekerjasama dengan Tukey. Paulis dan Frank ada empat anak-anak yang sering pengunjung ke Tukey rumah. Thompson menulis:
John Tukey ushered di era baru dari statistik. Dia mempertanyakan Fisherian asumsi yang biasa ketidakpastian dan memberikan kami masukan ke dalam penyimpangan dari dunia nyata. Hidupnya's kerja terdiri dari sebagian besar menemukan cara untuk mengumpulkan dan menganalisa data. Seperti dia pelajari, dia senang hati kami diajarkan dengan cara menyelesaikan sebuah dunia di mana tidak ada ketidakpastian tetapi hanya ketidakpastian tentang ketidakpastian. Sebagai beberapa akademik, John dan Elizabeth Tukey mencapai standar tertinggi untuk hikmat dan baik.

Tukey pertama kontribusi besar untuk statistik menggunakan teknik pengenalan modern untuk perkiraan Spectra waktu seri. EJ hannan, meninjau Tukey's paper tentang topik ini menulis:
Mereka menunjukkan sikap yang luar biasa keseragaman sifat yang realistis pengakuan terhadap kompleksitas situasi, yang ragu-ragu akibat dari asymptotic teori, penggunaan teknik statistik standar sebagai patokan daripada menyediakan (berkata) tepat interval keyakinan, terus menerus pertanyaan asumsi, penekanan pada aspek komputer, penekanan pada cara menyampaikan analisis, presentasi ini di biasa dengan cara utama pengguna daripada di dalam cara mengadopsi matematika perawatan, awal pengakuan terhadap kualitas unggul dari perangkat digital untuk tujuan umum (dibandingkan dengan perangkat analog) dan mempunyai pesona dengan kata-kata dan frasa baru, yang sebagian telah menjadi terbukti. Ada, tentu saja, juga pengenalan metode baru, beberapa yang telah memberikan sumbangsih yang penting. Termasuk metode untuk memperkirakan Spectra, Spectra lebih tinggi dari saat, kompleks demodulation, metode untuk menentukan besarnya dan tanda awal impulses diamati setelah pengiriman melalui (lebih kurang) tetap linear sistem dan analisis Fourier logaritma dari spektral untuk memperkirakan Echoes mengetahui.

Tukey itu dijelaskan dalam pembangunan jalan itu ia berpikir tentang subyek dalam pengenalan kepada karya masa depan data analisis diterbitkan pada tahun 1962:
Untuk waktu yang lama saya menduga bahwa saya adalah seorang ahli statistik, yang tertarik pada kesimpulan dari khusus ke umum. Tetapi saya tercinta matematika statistik berkembang, telah menyebabkan saya untuk heran dan keraguan. Dan ketika saya telah pondered tentang mengapa teknik tersebut sebagai spektrum analisis rangkaian waktu sehingga telah terbukti berguna, telah menjadi jelas bahwa mereka 'berurusan dengan fluktuasi' adalah aspek, dalam banyak situasi, kurang penting dibandingkan dengan aspek yang sudah diperlukan untuk menangani secara efektif dengan mudah kasus yang sangat luas di mana data fluktuasi tidak akan lagi menjadi masalah. Semua di semua, Aku datang untuk merasa bahwa saya adalah bunga di pusat data analisis ...

Pada tahun 1965, di sebuah kertas dengan JW Cooley dipublikasikan di Matematika dari Perhitungan, dia memperkenalkan penting Algoritma Transformasi Fourier cepat. Untuk banyak orang ini akan menjadi pekerjaan yang terbaik untuk diketahui. Namun, hanya sebagian kecil dari sejumlah besar daerah dengan kontribusi signifikan yang dibuat dia. Karyanya pada falsafah dan statistik dari penelitian ini diringkas oleh AD Gordon meliputi topik:
... yang kegunaan dan keterbatasan matematis statistik; akan pentingnya metode analisis statistik yang kuat untuk pelanggaran terhadap asumsi yang melandasi mereka menggunakan; yang perlu kumpulkan pengalaman tingkah laku spesifik metode analisis dalam rangka untuk memberikan pembinaan tentang penggunaan layanan; pentingnya memungkinkan data yang kemungkinan's mempengaruhi pilihan metode yang mereka analisis; kebutuhan untuk statistik untuk menolak peran 'wali terbukti dari kebenaran', dan untuk menolak upaya untuk menyediakan sekali-untuk-semua rapi dan solusi atas -unifications dari subjek yang berulang alam data analisis; implikasi dari peningkatan daya, dan ketersediaan fasilitas murahnya komputasi; pelatihan dari statistik.

Tukey dia menghabiskan seluruh karir di Princeton. Dia menjadi direktur yang baru didirikan Statistik Research Group ketika didirikan pada 1956. Dia pertama Ketua Departemen Statistik yang didirikan di Princeton pada 1965, memegang posisi untuk empat tahun. Di AT & T Bell Laboratories, Tukey telah terlibat dalam pengembangan elektronik komputer. Dia memegang posisi senior di Departemen Statistik dan Analisis Data dari waktu didirikan di AT & T di tahun 1952.
Tukey juga dibuat besar kontribusi untuk analisis yang berbeda dan masalah pembuatan serentak kesimpulan tentang sekumpulan parameter nilai dari satu percobaan. Banyak dari makalah yang ditulis dengan orang lain dan salah seorang co-penulis, M Mosteller menulis di:
John suka bekerja dengan orang lain, dan memiliki banyak kenikmatan dalam berpartisipasi dalam genius. Berbagai dan luasnya tentang tandai itu. Dia berhasil bekerja pada kedua-besar dan kecil dan masalah pada kedua masalah teori dan praktis. ... Dia selalu ingin menanggapi pertanyaan baru, dan ia memberi murah dari waktu dan ide.

Tukey's lecturing gaya ini tidak biasa. McCullagh dalam menjelaskan Tukey memberikan kuliah di Imperial College, London, pada tahun 1977:
Tukey ambled naik di podium, beruang yang besar dari seorang laki-laki berpakaian longgar dan celana hitam kemeja dirajut. Ini mungkin sekali telah pasangan yang cocok tetapi ketinggalan jaman itu yang terdengar untuk kirim. ... Dengan hati-hati dan sengaja daftar judul telah chalked di papan tulis. Kata datang juga, tidak banyak, seperti kelebihan bidang, disampaikan pada unfaltering memperlambat laju. ... Ketika itu lengkap, Tukey beralih ke wajah para penonton dan mimbar ... "Komentar, pertanyaan, saran?" ia meminta pemirsa ... Karena dia menunggu jawaban, ia clambered ke atas mimbar dan beliau manoeuvred sampai duduk sila menghadap penonton. ... Kami di khalayak Sabtu seperti penonton di kebun binatang menunggu untuk menanggung besar untuk memindahkan atau berkata sesuatu. Tetapi beruang besar yang akan muncul melakukan hal yang sama, dan merasa tidak nyaman.

McCullagh menunjukkan bahwa:
... Tukey menyukai untuk bermain game dia cara untuk membuat orang tebak sendiri untuk hal-hal yang dia sudah tahu. Apalagi, ia menyukai yang memberikan dan mengambil suatu argumen, tetapi ia juga diharapkan untuk itu berlaku, dan biasanya mereka lakukan.
Tukey telah banyak diberikan tanda kehormatan atas kontribusi yang beredar. Termasuk SS Wilks penghargaan dari Asosiasi Statistik Amerika di tahun 1965, Amerika Serikat National Medal of Science pada tahun 1973 dan Medali dari Hormatilah dari Institut Jurutera Elektrik Elektronik dan pada tahun 1982.

Dia sedikit waktu untuk kepentingan di luar keahlian ilmiah yang berlaku itu, tetapi ia menikmati fiksi ilmiah dan membaca novel misteri. Karyanya membawanya ke banyak daerah tak terduga seperti hal memperkaya uranium, bekerja pada pengembangan pesawat mata-mata U2, dan ia mewakili Amerika di konferensi senjata nuklir di Jenewa pada 1959. Selain itu pernah menjabat pada panel banyak laporan tentang isu-isu seperti lingkungan dan sensus.

Pada tahun 1965, Drs. James W. Cooley dan John W. Tukey (IEEE 1982 Medal of Honor penerima) menerbitkan sebuah makalah yang menjelaskan Fast Fourier Transform (FFT) algoritma, yang menyebabkan ledakan dalam pemrosesan sinyal digital. Penelitian tengara mereka menawarkan perbaikan besar dalam kecepatan pemrosesan dan memainkan peran penting dalam revolusi digital. Hari ini, pemrosesan sinyal digital merupakan bagian integral dari komunikasi, pengolahan informasi, elektronik konsumen, sistem kontrol, radar dan sonar, diagnosa medis, seismologi, instrumentasi ilmiah dan banyak lagi.

Setelah publikasi kertas, Dr Cooley bertekad untuk membantu orang lain memahami algoritma dan penggunaannya. Sementara di IBM Watson Research Center di Yorktown Heights, NY, ia membuat kontribusi yang tak terhitung jumlahnya untuk promosi FFT, termasuk melayani selama bertahun-tahun di Komite Signal Processing Digital Akustik IEEE, Pidato, dan Signal Processing Society (sekarang IEEE Signal Processing Masyarakat). Nya IEEE Arden House Lokakarya juga meletakkan dasar bagi IEEE Signal Processing Society.

Setelah pensiun dari IBM pada tahun 1991, ia bergabung dengan Departemen Teknik Elektro di University of Rhode Island. Hari ini ia menjabat URI sebagai tambahan dan terus berpartisipasi dalam proyek-proyek penelitian dalam deteksi sinyal.

Sebuah Fellow IEEE dan anggota National Academy of Engineering, Dr Cooley menerima beberapa penghargaan Masyarakat IEEE dan IEEE Centennial medali.


Cooley–Tukey FFT algorithm
The Cooley-Tukey algoritma, dinamai J.W. Cooley dan John Tukey, adalah yang paling umum cepat Fourier transform (FFT) algoritma. Ini kembali mengungkapkan transformasi Fourier diskrit (DFT) dari komposit ukuran sewenang-wenang N = N1N2 dalam hal DFTs kecil ukuran N1 dan N2, rekursif, dalam rangka untuk mengurangi waktu komputasi untuk O (N log N) untuk sangat-komposit N (nomor halus). Karena pentingnya algoritma, varian tertentu dan gaya implementasi telah menjadi dikenal dengan nama mereka sendiri, seperti yang dijelaskan di bawah ini.

Karena algoritma Cooley-Tukey istirahat DFT ke DFTs kecil, dapat dikombinasikan secara sewenang-wenang dengan algoritma lain untuk DFT. Misalnya, Rader atau Bluestein Algoritma dapat digunakan untuk menangani faktor prima besar yang tidak bisa diurai oleh Cooley-Tukey, atau algoritma prime-faktor dapat dimanfaatkan untuk lebih efisien dalam memisahkan faktor relatif prima.

Lihat juga cepat Fourier transform untuk informasi tentang algoritma lain FFT, spesialisasi untuk data nyata dan / atau simetris, dan akurasi dalam menghadapi terbatas presisi floating-point.

Sejarah

Algoritma ini, termasuk aplikasi rekursif nya, diciptakan sekitar 1805 oleh Carl Friedrich Gauss, yang menggunakannya untuk interpolasi lintasan asteroid Pallas dan Juno, namun karyanya tidak diakui secara luas (yang diterbitkan hanya anumerta dan neo-Latin). Gauss tidak menganalisis waktu komputasi asimtotik, namun. Berbagai bentuk yang terbatas juga ditemukan kembali beberapa kali selama abad 19 dan awal abad ke-20. FFTs menjadi populer setelah James Cooley IBM dan John Tukey dari Princeton menerbitkan sebuah makalah pada tahun 1965 menciptakan kembali algoritma dan menjelaskan bagaimana melakukan hal itu dengan nyaman pada komputer.

Tukey dikabarkan datang dengan ide selama pertemuan dari presiden komite penasihat AS membahas cara-cara untuk mendeteksi tes-senjata nuklir di Uni Soviet. Peserta lain pada pertemuan itu, Richard Garwin IBM, mengakui potensi metode dan menempatkan Tukey berhubungan dengan Cooley, yang diterapkan untuk masalah yang berbeda (dan kurang-rahasia): menganalisis data kristalografi 3d (lihat juga: FFTs multidimensi) . Cooley dan Tukey kemudian menerbitkan kertas bersama mereka, dan adopsi luas diikuti dengan cepat.

Fakta bahwa Gauss telah dijelaskan algoritma yang sama (meskipun tanpa menganalisa biaya asimtotik nya) tidak menyadari sampai beberapa tahun setelah Cooley dan Tukey 1965 kertas. Kertas mereka dikutip sebagai inspirasi hanya bekerja oleh IJ Baik pada apa yang sekarang disebut FFT algoritma prime-faktor (PFA), algoritma meskipun Baik pada awalnya keliru dianggap setara dengan algoritma Cooley-Tukey, itu cepat menyadari bahwa PFA adalah algoritma sangat berbeda (hanya bekerja untuk ukuran yang memiliki faktor relatif prima dan mengandalkan Teorema Remainder Cina, seperti dukungan untuk berbagai ukuran komposit di Cooley-Tukey).
Radix-2 DIT kasus

Sebuah radix-2 penipisan-in-time (DIT) FFT adalah bentuk yang paling sederhana dan paling umum dari algoritma Cooley-Tukey, meskipun sangat optimal implementasi Cooley-Tukey biasanya menggunakan bentuk lain dari algoritma seperti yang dijelaskan di bawah ini. Radix-2 DIT membagi DFT berukuran N menjadi dua DFTs interleaved (maka nama "radix-2") dengan ukuran N / 2 dengan setiap tahap rekursif.

Transformasi Fourier diskrit (DFT) didefinisikan dengan rumus:


di mana k adalah integer berkisar dari 0 sampai N-1.

Radix-2 DIT pertama menghitung DFTs dari input bahkan-diindeks x_ {2m} \ (x_0, x_2, \ ldots, x_ {N-2}) dan input aneh-diindeks x_ {2m +1} \ (x_1 , x_3, \ ldots, x_ {N-1}), dan kemudian menggabungkan dua hasil untuk menghasilkan DFT dari seluruh urutan. Ide ini kemudian dapat dilakukan secara rekursif untuk mengurangi keseluruhan runtime ke O (N log N). Formulir ini disederhanakan mengasumsikan bahwa N adalah kekuatan dua, karena jumlah titik sampel N biasanya dapat dipilih secara bebas oleh aplikasi, hal ini sering tidak pembatasan penting.

Algoritma Radix-2 DIT menata kembali DFT dari fungsi x_n menjadi dua bagian: jumlah atas indeks genap n = {} 2m dan jumlah di atas indeks ganjil n = {2m +1}:




Satu dapat faktor pengali umum e ^ {- \ frac {2 \ pi i} {N}} k dari jumlah kedua, seperti yang ditunjukkan pada persamaan di bawah ini. Maka jelas bahwa dua jumlah adalah DFT dari bahkan-diindeks bagian x_ {} 2m dan DFT aneh-diindeks bagian x_ {2m +1} dari fungsi x_n. Menunjukkan DFT dari input Bahkan-diindeks x_ {2m} oleh E_k dan DFT dari input Odd-diindeks x_ {2m + 1} oleh O_k dan kita memperoleh:

Namun, ini DFTs kecil memiliki panjang N / 2, jadi kita perlu menghitung hanya N / 2 output: berkat sifat periodisitas DFT, output untuk N / 2 \ leq k <N dari DFT panjang N / 2 identik dengan output untuk 0 \ leq k <N / 2. Artinya, E_ {k + N / 2} = E_k dan O_ {k + N / 2} = O_k. Tahap Faktor \ exp [-2 \ pi ik / N] (disebut faktor bermalas) mematuhi hubungan: \ exp [-2 \ pi i (k + N / 2) / N] = e ^ {- \ pi i } \ exp [-2 \ pi ik / N] = - \ exp [-2 \ pi ik / N], membalik tanda O_ {k + N / 2} istilah. Dengan demikian, seluruh DFT dapat dihitung sebagai berikut:

Hasil ini, mengungkapkan DFT panjang N rekursif dalam hal dua DFTs ukuran N / 2, adalah inti dari radix-2 DIT Fast Fourier Transform. Algoritma keuntungan kecepatan dengan kembali menggunakan hasil perhitungan antara untuk menghitung beberapa output DFT. Perhatikan bahwa output akhir yang diperoleh oleh + / - kombinasi E_k dan O_k \ exp (-2 \ pi ik / N), yang hanya merupakan ukuran-2 DFT (kadang-kadang disebut kupu-kupu dalam konteks ini), ketika hal ini umum untuk tinggal akar yang lebih besar di bawah ini, ukuran-2 DFT digantikan oleh DFT lebih besar (yang dengan sendirinya dapat dievaluasi dengan FFT).
Diagram aliran data untuk N = 8: a penipisan-in-time radix-2 FFT istirahat panjang-N DFT menjadi dua panjang-N / 2 DFTs diikuti oleh tahap menggabungkan terdiri dari banyak ukuran-2 DFTs disebut "kupu-kupu" operasi ( disebut demikian karena dari bentuk diagram aliran data).

Proses ini adalah contoh dari teknik umum membagi dan menaklukkan algoritma, dalam banyak implementasi tradisional, bagaimanapun, rekursi eksplisit dihindari, dan bukannya satu melintasi pohon komputasi dalam mode breadth-first.

Atas kembali ekspresi dari ukuran-N DFT sebagai dua ukuran-N / 2 DFTs kadang-kadang disebut lemma Danielson-Lanczos, karena identitas itu dicatat oleh kedua penulis pada tahun 1942 [7] (dipengaruhi oleh Runge ini 1903 pekerjaan [2 ]). Mereka menerapkan lemma mereka dalam "mundur" mode rekursif, berulang dua kali lipat ukuran DFT sampai transformasi spektrum konvergensi (meskipun mereka tampaknya tidak menyadari linearithmic [yaitu, urutan N log N] kompleksitas asimtotik mereka telah tercapai). Pekerjaan Danielson-Lanczos mendahului ketersediaan luas komputer dan perhitungan tangan yang diperlukan (mungkin dengan alat bantu mekanis seperti mesin hitung), mereka melaporkan perhitungan waktu 140 menit untuk ukuran 64-DFT operasi masukan nyata untuk 3-5 signifikan digit. Cooley dan Tukey 1965 kertas melaporkan waktu berjalan 0,02 menit untuk DFT ukuran-2048 kompleks pada IBM 7094 (mungkin di 36-bit tunggal presisi, ~ 8 digit). [3] Rescaling waktu dengan jumlah operasi, ini sesuai kira-kira dengan faktor speedup sekitar 800.000. (Untuk menempatkan waktu untuk perhitungan tangan dalam perspektif, 140 menit untuk ukuran 64 sesuai dengan rata-rata hampir 16 detik per operasi floating-point, sekitar 20% di antaranya adalah perkalian.)
http://upload.wikimedia.org/wikipedia/commons/thumb/c/cb/DIT-FFT-butterfly.png/300px-DIT-FFT-butterfly.png

Diagram aliran data untuk N = 8: a penipisan-in-time radix-2 FFT istirahat panjang-N DFT menjadi dua panjang-N / 2 DFTs diikuti oleh tahap menggabungkan terdiri dari banyak ukuran-2 DFTs disebut "kupu-kupu" operasi (disebut demikian karena dari bentuk diagram aliran data).

Pseudocode

Dalam pseudocode, proses di atas dapat ditulis:
X0,...,N−1ditfft2(x, N, s):             DFT of (x0, xs, x2s, ..., x(N-1)s):
    if N = 1 then
        X0x0                                      trivial size-1 DFT base case
    else
        X0,...,N/2−1ditfft2(x, N/2, 2s)             DFT of (x0, x2s, x4s, ...)
        XN/2,...,N−1ditfft2(x+s, N/2, 2s)           DFT of (xs, xs+2s, xs+4s, ...)
        for k = 0 to N/2−1                           combine DFTs of two halves into full DFT:
            t ← Xk
            Xk ← t + exp(−2πi k/N) Xk+N/2
            Xk+N/2 ← t − exp(−2πi k/N) Xk+N/2
        endfor
    endif

Di sini, ditfft2 (x, N, 1), menghitung X = DFT (x) out-of-tempat oleh FFT radix-2 Dit, di mana N adalah kekuatan integer 2 dan s = 1 adalah langkah dari input x array. x + s menunjukkan array dimulai dengan xs.

(Hasilnya dalam urutan yang benar di X dan tidak lebih sedikit-pembalikan permutasi diperlukan, kebutuhan sering disebutkan dari tahap-bit pembalikan terpisah hanya muncul untuk algoritma di-tempat tertentu, seperti yang dijelaskan di bawah ini.)

Kinerja tinggi implementasi FFT membuat banyak modifikasi pada implementasi algoritma tersebut dibandingkan dengan ini pseudocode sederhana. Misalnya, satu dapat menggunakan kasus dasar lebih besar dari N = 1 untuk amortisasi overhead dari rekursi, faktor bermalas \ exp [-2 \ pi ik / N] dapat precomputed, dan sisa akar yang lebih besar sering digunakan untuk alasan tembolok; ini dan optimasi lain bersama-sama dapat meningkatkan kinerja dengan urutan besarnya atau lebih. [8] (dalam banyak implementasi buku rekursi depth-first dihilangkan seluruhnya dalam mendukung nonrecursive pendekatan luas-pertama, meskipun rekursi depth-first telah berpendapat memiliki lokalitas memori yang lebih baik.) Beberapa ide ini dijelaskan secara lebih rinci di bawah.

Faktorisasi Umum
http://upload.wikimedia.org/wikipedia/commons/thumb/5/57/Cooley-tukey-general.png/500px-Cooley-tukey-general.png

Langkah dasar dari Cooley-Tukey FFT untuk faktorisasi umum dapat dipandang sebagai ulang menafsirkan DFT 1d sebagai sesuatu seperti 2d DFT. The 1d array input panjang N = N1N2 dimodelkan sebagai 2d N1 × N2 matriks disimpan dalam urutan kolom-besar. Satu melakukan DFTs 1d kecil sepanjang arah N2 (arah non-contiguous), kemudian mengalikan dengan faktor fasa (faktor hiasan), dan akhirnya melakukan DFTs 1d sepanjang arah N1. Transposisi langkah dapat dilakukan di tengah, seperti yang ditunjukkan di sini, atau di awal atau akhir. Hal ini dilakukan secara rekursif untuk transformasi yang lebih kecil.

Secara umum, algoritma Cooley-Tukey rekursif kembali mengungkapkan DFT dari ukuran komposit N = N1N2 sebagai:

    Lakukan DFTs N1 ukuran N2.
    Kalikan dengan akar kompleks kesatuan yang disebut faktor bermalas.
    Lakukan DFTs N2 ukuran N1.

Biasanya, baik N1 atau N2 merupakan faktor kecil (tidak selalu prima), disebut radix (yang bisa berbeda antara tahapan rekursi). Jika N1 adalah radix, itu disebut penipisan dalam waktu (Dit) algoritma, sedangkan jika N2 adalah radix, itu adalah penipisan di frekuensi (DIF, juga disebut algoritma Sande-Tukey). Versi yang disajikan di atas adalah algoritma radix-2 Dit, dalam ekspresi akhir, fase mengalikan transformasi aneh adalah faktor hiasan, dan + / - Kombinasi (kupu-kupu) dari transformasi genap dan ganjil adalah ukuran-2 DFT. (The radix itu DFT kecil kadang-kadang dikenal sebagai kupu-kupu, yang disebut karena bentuk diagram dataflow untuk radix-2 kasus.)

Ada banyak variasi lain pada algoritma Cooley-Tukey. Campur-radix implementasi menangani ukuran komposit dengan berbagai (biasanya kecil) faktor selain dua, biasanya (tetapi tidak selalu) dengan menggunakan O (N2) algoritma untuk kasus dasar utama rekursi [juga memungkinkan untuk mempekerjakan N log N algoritma untuk kasus dasar utama, seperti Rader atau Bluestein Algoritma]. Berpisah radix gabungan sisa akar 2 dan 4, mengeksploitasi fakta bahwa transformasi pertama radix 2 tidak memerlukan faktor hiasan, untuk mencapai apa yang lama dikenal count operasi aritmatika terendah untuk power-of-dua ukuran, meskipun variasi baru-baru ini mencapai bahkan menurunkan jumlah. (Pada komputer masa kini, kinerja lebih banyak ditentukan oleh cache dan pertimbangan pipa CPU daripada jumlah operasi yang ketat, baik dioptimalkan implementasi FFT sering menggunakan sisa akar yang lebih besar dan / atau hard-kode kasus dasar berubah dari ukuran yang signifikan.) Cara lain melihat algoritma Cooley-Tukey adalah bahwa hal itu kembali mengungkapkan ukuran N satu-dimensi DFT sebagai N1 N2 oleh dua dimensi DFT (ditambah twiddles), di mana matriks output dialihkan. Hasil bersih dari semua transposisi ini, untuk algoritma radix-2, sesuai dengan pembalikan bit dari masukan (DIF) atau output (DIT) indeks. Jika, daripada menggunakan kecil radix, yang mempekerjakan radix kira-kira √ N dan input / output eksplisit transposisi matriks, disebut algoritma empat langkah (atau enam langkah, tergantung pada jumlah transposisi), awalnya diusulkan untuk meningkatkan lokalitas memori, misalnya untuk optimasi tembolok atau operasi out-of-core, dan kemudian terbukti menjadi algoritma cache menyadari optimal.
General Cooley-Tukey faktorisasi menulis ulang indeks k dan n sebagai  
masing-masing, di mana indeks ka na dan berlari dari 0 .. Na-1 (untuk 1 atau 2). Artinya, re-indeks input (n) dan output (k) sebagai N1 N2 oleh dua dimensi array dalam urutan kolom dan baris-besar-besar, masing-masing; perbedaan antara indexings ini adalah transposisi, seperti disebutkan di atas. Ketika ini kembali pengindeksan disubstitusikan ke rumus DFT untuk nk, yang N_1 n_2 N_2 k_1 lintas jangka hilang (yang eksponensial adalah kesatuan), dan istilah yang tersisa memberikan

di mana masing-masing jumlah batin adalah DFT ukuran N2, masing-masing jumlah luar adalah DFT ukuran N1, dan [...] jangka kurung adalah faktor bermalas.

Sewenang-wenang radix r (serta sisa akar campuran) dapat digunakan, seperti yang ditunjukkan oleh Cooley dan Tukey [3] serta Gauss (yang memberi contoh radix-3 dan radix-6 langkah). Cooley dan Tukey awalnya diasumsikan bahwa radix kupu-kupu yang dibutuhkan O (r2) pekerjaan dan karenanya diperhitungkan kompleksitas untuk radix r menjadi O (r2 N / r logrN) = O (N log2 (N) r/log2r), dari perhitungan nilai r/log2r untuk nilai-nilai integer r 2-12 optimal radix ditemukan menjadi 3 (bilangan bulat terdekat dengan e, yang meminimalkan r/log2r). Analisis ini adalah salah, namun: radix-kupu juga DFT dan dapat dilakukan melalui algoritma FFT di O (log r r) operasi, maka radix r sebenarnya membatalkan dalam kompleksitas O (log r (r) N / r logrN), dan r optimal ditentukan oleh pertimbangan yang lebih rumit. Dalam prakteknya, r cukup besar (32 atau 64) yang penting agar dapat secara efektif mengeksploitasi misalnya jumlah besar prosesor register pada prosesor modern, dan bahkan tak terbatas radix r = N juga mencapai O (N log N) kompleksitas dan memiliki kelebihan teoritis dan praktis untuk besar N seperti yang disebutkan di atas.

Data pemesanan ulang, sedikit pembalikan, dan algoritma di tempat

Meskipun abstrak Cooley-Tukey faktorisasi DFT, di atas, berlaku dalam beberapa bentuk untuk semua implementasi dari algoritma, keragaman jauh lebih besar ada dalam teknik untuk memesan dan mengakses data pada setiap tahap FFT. Dari minat khusus adalah masalah merancang sebuah algoritma di tempat yang menimpa input dengan data output hanya menggunakan O (1) penyimpanan tambahan.

Teknik yang paling terkenal penataan melibatkan sedikit pembalikan eksplisit untuk di tempat radix-2 algoritma. Bit pembalikan adalah permutasi dimana data pada indeks n, ditulis dalam biner dengan angka b4b3b2b1b0 (misalnya 5 digit untuk N = 32 input), ditransfer ke indeks dengan angka terbalik b0b1b2b3b4. Pertimbangkan tahap terakhir dari algoritma radix-2 DIT seperti yang disajikan di atas, di mana output ditulis di tempat atas masukan: ketika E_k dan O_k digabungkan dengan ukuran-2 DFT, dua nilai yang ditimpa oleh output . Namun, dua nilai output harus pergi di bagian pertama dan kedua dari array output, sesuai dengan bit yang paling signifikan b4 (untuk N = 32), sedangkan dua input E_k dan O_k disisipkan dalam elemen genap dan ganjil, sesuai untuk paling signifikan bit B0. Dengan demikian, dalam rangka untuk mendapatkan output di tempat yang benar, kedua bit harus ditukar. Jika Anda memasukkan semua tahap rekursif dari algoritma radix-2 Dit, semua bit harus bertukar dan dengan demikian orang harus pra-proses input (atau pasca-proses output) dengan pembalikan bit untuk mendapatkan output di-order. (Jika setiap ukuran-N / 2 subtransform adalah untuk beroperasi pada data yang berdekatan, input DIT adalah pra-diproses oleh bit-reversal.) Sejalan dengan itu, jika Anda melakukan semua langkah-langkah dalam urutan terbalik, Anda mendapatkan algoritma radix-2 DIF dengan pembalikan bit di pos-pengolahan (atau pra-pengolahan, masing-masing). Atau, beberapa aplikasi (seperti konvolusi) bekerja sama dengan baik pada data bit-terbalik, sehingga seseorang dapat melakukan transformasi maju, pengolahan, dan kemudian terbalik mengubah semua tanpa sedikit pembalikan untuk menghasilkan hasil akhir dalam tatanan alam.

Banyak pengguna FFT, bagaimanapun, lebih memilih output alami-order, dan terpisah, eksplisit tahap bit-reversal dapat memiliki dampak non-diabaikan pada perhitungan waktu, meskipun sedikit pembalikan dapat dilakukan dalam O (N) waktu dan telah menjadi subyek banyak penelitian. Juga, sementara permutasi adalah pembalikan bit dalam radix-2 kasus, itu lebih umum pembalikan sewenang-wenang (mixed-base) digit untuk campuran radix kasus, dan algoritma permutasi menjadi lebih rumit untuk menerapkan. Selain itu, diharapkan pada banyak arsitektur hardware untuk kembali urutan tahap-tahap peralihan dari algoritma FFT sehingga mereka beroperasi pada berturut-turut (atau setidaknya lebih terlokalisasi) elemen data. Untuk tujuan ini, sejumlah skema implementasi alternatif telah dirancang untuk algoritma Cooley-Tukey yang tidak memerlukan pembalikan bit dan / atau melibatkan terpisah permutasi tambahan pada tahap-tahap peralihan.

Masalahnya adalah sangat sederhana jika out-of-tempat: output array berbeda dari array input atau, sama, array tambahan dengan ukuran yang sama tersedia. The Stockham algoritma auto-sort melakukan setiap tahap FFT out-of-tempat, biasanya menulis bolak-balik antara dua array, mentransposisi satu "digit" dari indeks dengan setiap tahap, dan telah sangat populer pada SIMD arsitektur. Bahkan lebih besar potensi keuntungan SIMD (akses lebih berturut-turut) telah diusulkan untuk algoritma Pease, yang juga menata ulang out-of-tempat dengan setiap tahap, tetapi metode ini memerlukan terpisah bit / pembalikan digit dan O (N log N) penyimpanan. Satu juga dapat langsung menerapkan definisi faktorisasi Cooley-Tukey dengan eksplisit (depth-first) rekursi dan kecil sisa akar, yang menghasilkan alam-order out-of-tempat output dengan ada langkah permutasi terpisah (seperti dalam pseudocode di atas) dan bisa dikatakan memiliki manfaat lokalitas cache menyadari pada sistem dengan memori hirarkis.

Sebuah strategi yang khas untuk di tempat tanpa algoritma penyimpanan tambahan dan tanpa terpisah melewati digit-pembalikan melibatkan transposisi matriks kecil (yang menukar pasangan individu digit) pada tahap-tahap peralihan, yang dapat dikombinasikan dengan radix kupu-kupu untuk mengurangi jumlah melewati atas data.


Daftar Pustaka :


0 komentar:

Posting Komentar