18ヶ月でコンピューターの計算能力が2倍になるという「ムーアの法則は終わった」、NVIDIAのCEOが言及
2017年06月08日:16:00
- カテゴリ:新技術
1: ののの ★@\(^o^)/ 2017/06/05(月) 22:14:59.20 ID:CAP_USER
台湾・台北で開催された「COMPUTEX TAIPEI 2017」で、NVIDIAのCEOであるJensen Huang氏は、「ムーアの法則は終わった。マイクロプロセッサはもはや、かつてのようなレベルでの微細化は不可能だ」と、ムーアの法則の限界について言及した。
「ムーアの法則は終わった」
「ムーアの法則は終わった」。NVIDIAのCEO(最高経営責任者)を務めるJensen Huang氏は、アカデミック界で長年ささやかれてきた説について、大手半導体企業として恐らく初めて言及した。
ムーアの法則は、Intelの共同設立者であるゴードン・ムーア氏が1965年に、「トランジスタの微細化は非常に速く進み、集積度は毎年倍増していく」と提唱したことから生まれた。ただし、微細化の速度は1975年に、「2年ごとに2倍になる」と変更された。
Huang氏は、台湾・台北で開催された「COMPUTEX TAIPEI 2017」(2017年5月30日~6月3日)で、報道陣やアナリストに向けて、「スーパースカラーによるパイプラインの段数増加や投機的実行といったアーキテクチャの進化によって、ムーアの法則のペースは維持されてきた。だが現在は、そのペースが鈍化している」と語った。
(以下略)
※全文、詳細はソース元で
http://eetimes.jp/ee/articles/1706/05/news053.html
引用元: ・【ムーアの法則】「ムーアの法則は終わった」、NVIDIAのCEOが言及
6: 名無しのひみつ@\(^o^)/ 2017/06/05(月) 22:23:39.67 ID:ONgge77z
これって事実上CPUも汎用品になるってことでしょ
20: 名無しのひみつ@\(^o^)/ 2017/06/05(月) 22:46:52.94 ID:B6fWTgMY
>>6
そう、そのキーになるのがARM
そう、そのキーになるのがARM
7: 名無しのひみつ@\(^o^)/ 2017/06/05(月) 22:23:43.55 ID:LWSoLeIH
14オングストロームプロセス!?:
IMECの半導体ロードマップ展望 (1/3)
http://eetimes.jp/ee/spv/1705/24/news048.html
IMECのプロセス技術関連のベテラン専門家であるAnSteegen氏が、
2017年の半導体ロードマップを発表し、
半導体プロセスの微細化に対し楽観的な見方を示した
IMECの半導体ロードマップ展望 (1/3)
http://eetimes.jp/ee/spv/1705/24/news048.html
IMECのプロセス技術関連のベテラン専門家であるAnSteegen氏が、
2017年の半導体ロードマップを発表し、
半導体プロセスの微細化に対し楽観的な見方を示した
17: 名無しのひみつ@\(^o^)/ 2017/06/05(月) 22:39:50.87 ID:Wk8LJcRh
>>7
表面的数値あげても意味ないんだよ、
一番細かい部分の集積度があがっても、全部をそれにできないかぎり
インテルの14nmと某T社の7nmが同じ性能になる原理がある。
そして性能のボトルネックとなっているのは集積度ではなく、メモリ原理
による動作速度の遅延によるもの、SRAMですべてを作ればいいが、
現実的にDRAM(コンデンサー原理)を使えばeDRAM等であっても
コンデンサーが1ビットで保存できる電子の数の下限は変更できない。
そしてそのコンデンサーの容量が遅延速度そのものである。
その1素子だけをみた速度は100MHzすら超えられない。
表面的数値あげても意味ないんだよ、
一番細かい部分の集積度があがっても、全部をそれにできないかぎり
インテルの14nmと某T社の7nmが同じ性能になる原理がある。
そして性能のボトルネックとなっているのは集積度ではなく、メモリ原理
による動作速度の遅延によるもの、SRAMですべてを作ればいいが、
現実的にDRAM(コンデンサー原理)を使えばeDRAM等であっても
コンデンサーが1ビットで保存できる電子の数の下限は変更できない。
そしてそのコンデンサーの容量が遅延速度そのものである。
その1素子だけをみた速度は100MHzすら超えられない。
10: 名無しのひみつ@\(^o^)/ 2017/06/05(月) 22:28:47.04 ID:Wk8LJcRh
技術的特異点信者なみだ目
12: 名無しのひみつ@\(^o^)/ 2017/06/05(月) 22:31:37.87 ID:n/cu0k2M
それでもCUDAコアは増えてんだけどな
16: 名無しのひみつ@\(^o^)/ 2017/06/05(月) 22:38:39.81 ID:Z5k6Qwbe
18: 名無しのひみつ@\(^o^)/ 2017/06/05(月) 22:41:19.35 ID:pCwaxpHw
ロジャーは先日お亡くなりになったからな……
21: 名無しのひみつ@\(^o^)/ 2017/06/05(月) 22:47:50.95 ID:ex5cRXMX
超電導回路まだか?
量子プロセッサまだか?
量子プロセッサまだか?
24: 名無しのひみつ@\(^o^)/ 2017/06/05(月) 22:53:03.43 ID:Wk8LJcRh
>>21
量子プロセッサは無理、量子トンネルと量子エンタングルの原理は違うので
前者のトンネルでどんなことしても量子エンタングルの足元にも届かない、
つまり従来コンピュータよりコストが高く使い用途がない(汎用性が無い)
D-Waveのそれは量子エンタングルの原理を途中から否定しているので
そんなまがい物はエセ量子コンピュータにすぎない。使えない。
量子コンピュータの規模を集積できないのは量子もつれの突然死という
物理現象を克服できないからの理由の1点である、回路が生成されても
突然崩壊してしまう原理ということ。
同じ量子原理を使った光集積回路である、光コンピュータのほうがはるかに
現実的で近い将来登場する。光コンピュータの性能上限はまだ発見されていいない。
量子プロセッサは無理、量子トンネルと量子エンタングルの原理は違うので
前者のトンネルでどんなことしても量子エンタングルの足元にも届かない、
つまり従来コンピュータよりコストが高く使い用途がない(汎用性が無い)
D-Waveのそれは量子エンタングルの原理を途中から否定しているので
そんなまがい物はエセ量子コンピュータにすぎない。使えない。
量子コンピュータの規模を集積できないのは量子もつれの突然死という
物理現象を克服できないからの理由の1点である、回路が生成されても
突然崩壊してしまう原理ということ。
同じ量子原理を使った光集積回路である、光コンピュータのほうがはるかに
現実的で近い将来登場する。光コンピュータの性能上限はまだ発見されていいない。
32: 名無しのひみつ@\(^o^)/ 2017/06/05(月) 23:16:16.19 ID:Wk8LJcRh
隣り合う原子の電子の存在状態が曖昧になる領域、
それは突然くるわけじゃなく原子間が狭くなるほど回路として成立しなくなる
情報処理するには情報が伝達し判断するトランジスタとの信号を区切り
絶縁しなければならないのに隣のそれが近づきすぎて隣の信号と区別できなくなる
区別できないものが熱になる。
例えば電車の架線の電圧と電車の上にのった人が感電する距離を考えて
その距離と電圧を同じ比で縮小すればわかる、
すでに感電して危険な領域を超えて接近している。うまくそれらを絶縁させる
構造を作っても狭まる集積部分の熱は減らせない。
集積せずに細かくするなら可能なんだけど集積度が高いままなら集積するほど
極所に熱が密集する、これを冷やせる限界があるってこと。
そして半導体が半導体で機能する温度より低くないとダメってこと。
それは突然くるわけじゃなく原子間が狭くなるほど回路として成立しなくなる
情報処理するには情報が伝達し判断するトランジスタとの信号を区切り
絶縁しなければならないのに隣のそれが近づきすぎて隣の信号と区別できなくなる
区別できないものが熱になる。
例えば電車の架線の電圧と電車の上にのった人が感電する距離を考えて
その距離と電圧を同じ比で縮小すればわかる、
すでに感電して危険な領域を超えて接近している。うまくそれらを絶縁させる
構造を作っても狭まる集積部分の熱は減らせない。
集積せずに細かくするなら可能なんだけど集積度が高いままなら集積するほど
極所に熱が密集する、これを冷やせる限界があるってこと。
そして半導体が半導体で機能する温度より低くないとダメってこと。
22: 名無しのひみつ@\(^o^)/ 2017/06/05(月) 22:50:29.24 ID:4GmOloeh
科学なんて時空的に限定された中でしか成立しない特殊ルールだから仕方ないです
23: 名無しのひみつ@\(^o^)/ 2017/06/05(月) 22:50:58.31 ID:lmQuvPJo
SFのような未来は訪れないんだね
27: 名無しのひみつ@\(^o^)/ 2017/06/05(月) 23:04:21.61 ID:LY4LaFeg
量子効果が出てくる領域に突入したってことなんだろ?
その副作用が大きすぎるんだろ?
その副作用が大きすぎるんだろ?
29: 名無しのひみつ@\(^o^)/ 2017/06/05(月) 23:07:29.28 ID:DqE8Bjqo
このままでは
売り上げよりも開発費用のほうが
上回っちゃっうって事だな
売り上げよりも開発費用のほうが
上回っちゃっうって事だな
36: 名無しのひみつ@\(^o^)/ 2017/06/05(月) 23:50:38.50 ID:zDUDj16F
まだこんなに低性能なのに
気合入れて開発しろよ
気合入れて開発しろよ
45: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 00:20:31.26 ID:xCXyi+Om
>>36
さあ一緒にハード屋になるんだ
良いぞハード屋は
物理現象が相手だからな
さあ一緒にハード屋になるんだ
良いぞハード屋は
物理現象が相手だからな
38: 名無しのひみつ@\(^o^)/ 2017/06/05(月) 23:52:54.99 ID:QVfx/znv
GPUが配線お化けの世界で、リーク電流の影響が大きいからね。
頑張って微細化を進めても恩恵がどんどん受けられなくなってきてる。
頑張って微細化を進めても恩恵がどんどん受けられなくなってきてる。
43: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 00:19:28.33 ID:OHpjHykI
今こそ日本は総力をあげて粘菌コンピュータを実用化してGoogleを潰しに行くべき
49: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 01:01:32.74 ID:P1SYBP+M
144M95センチ
1440M9.5センチ
3G4センチ
14G0.95センチ
チップの端から端まで信号届くのにこの距離が限界
一ミリ径のCPU作るしかないなw
1440M9.5センチ
3G4センチ
14G0.95センチ
チップの端から端まで信号届くのにこの距離が限界
一ミリ径のCPU作るしかないなw
50: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 01:10:49.09 ID:XDxf74Sp
IBMが、5nmのチップを発表したみたいだよ。
ttps://techcrunch.com/2017/06/05/ibm-creates-a-new-transistor-type-for-5nm-silicon-chips/
ttps://techcrunch.com/2017/06/05/ibm-creates-a-new-transistor-type-for-5nm-silicon-chips/
53: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 01:20:07.90 ID:wJtfT9vN
AIはあきらめてくれ。もう自分が神になるしかないよ。
54: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 01:29:48.63 ID:+jR6uNRs
ムーアの法則が止まってもコンピュータのスピードは上がり続けるって主張でしょ
それは間違ってないけどGPUだけがその役割を担うというのは同意出来ない
まだまだトランジスタは進化するだろうし大容量キャッシュによる高速化もあるだろうしシステムの3次元統合による高速化も期待出来る
それは間違ってないけどGPUだけがその役割を担うというのは同意出来ない
まだまだトランジスタは進化するだろうし大容量キャッシュによる高速化もあるだろうしシステムの3次元統合による高速化も期待出来る
56: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 01:43:53.50 ID:3jdBbHD3
>>54
並列化の速度は上がっているが、シングル性能は亀だよ。
そのトランジスタが進化しようが、情報伝達(伝播)という物理法則のは
足止めしかない。
100GHzで動くトランジスタはあるのに極所熱密度の問題が解決できない、
トランジスタを小型化してもより集積し極所熱密度の問題が解決できない
三次元にしても縦方向に熱の極所集中になる問題はどうにもならない、
熱分散して相互の距離を広げれば遅くなる。
キャッシュは増やせばいいものじゃなく応答速度の緩衝剤にすぎない、大容量にすれば
解決するとか前世紀のキャッシュができた当時の発想な。
電子計算機の電子を扱う物理法則がそれを許さない。方法は1つ、
電子を使わない計算機の実現だけ。
貴方の浅い知恵じゃ無理。
並列化の速度は上がっているが、シングル性能は亀だよ。
そのトランジスタが進化しようが、情報伝達(伝播)という物理法則のは
足止めしかない。
100GHzで動くトランジスタはあるのに極所熱密度の問題が解決できない、
トランジスタを小型化してもより集積し極所熱密度の問題が解決できない
三次元にしても縦方向に熱の極所集中になる問題はどうにもならない、
熱分散して相互の距離を広げれば遅くなる。
キャッシュは増やせばいいものじゃなく応答速度の緩衝剤にすぎない、大容量にすれば
解決するとか前世紀のキャッシュができた当時の発想な。
電子計算機の電子を扱う物理法則がそれを許さない。方法は1つ、
電子を使わない計算機の実現だけ。
貴方の浅い知恵じゃ無理。
101: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 20:13:00.72 ID:+jR6uNRs
>>56
発熱さえ抑えればスピードは上がるってことだよね
低発熱のトランジスタを開発すれば解決じゃん
発熱さえ抑えればスピードは上がるってことだよね
低発熱のトランジスタを開発すれば解決じゃん
103: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 20:48:40.24 ID:6CtxLw+N
>>56
>>101
室温動作シリコン単電子トランジスタとCMOS回路との集積化に関する研究.
http://ir.c.chuo-u.ac.jp/repository/search/item/md/-/p/7557/
>>101
室温動作シリコン単電子トランジスタとCMOS回路との集積化に関する研究.
http://ir.c.chuo-u.ac.jp/repository/search/item/md/-/p/7557/
60: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 02:47:49.30 ID:Ds8OAoHZ
第二次itバブルもそろそろ終わるか
62: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 03:07:12.83 ID:kb4sJUmk
CPUの現状は判った
ところでMRAMの進捗はどうなん
ところでMRAMの進捗はどうなん
65: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 03:31:07.25 ID:3jdBbHD3
>>62
2016年の4Gbit MRAMの後は発表がない
http://skymouse.hatenablog.com/entry/2016/12/12/164119
ワンチップ=4GBitだから
キャッシュ容量としては充分のサイズ、DRAMを置き換えるには足りない
MLCとTLCのMRAMについても別で試験段階で可能と判断されているレベル。
https://www.mram-info.com/hitachi-and-tohoku-university-developed-mlc-stt-mram
http://ieeexplore.ieee.org/document/7168703/
また三次元構造の研究は確認されず。
今後の容量としては何の問題もない進捗だが、コスト面の問題がありハイエンドのスパコンや
特殊用途では主記憶置き換えや大容量キャッシュMRAMで何の問題もないが
PCや携帯向けではコストが高いのでチップ面積は極力下げるはずである。
またMCMでないコア実装ではDRAMやらNANDは不可能(半導体の高さが桁違い)だが
MRAMはCPUコア実装or共存が可能である。
さらに低容量では125℃で10年記録保持の確認もされているのでCPUコア付近では特に有望である、
2016年の4Gbit MRAMの後は発表がない
http://skymouse.hatenablog.com/entry/2016/12/12/164119
ワンチップ=4GBitだから
キャッシュ容量としては充分のサイズ、DRAMを置き換えるには足りない
MLCとTLCのMRAMについても別で試験段階で可能と判断されているレベル。
https://www.mram-info.com/hitachi-and-tohoku-university-developed-mlc-stt-mram
http://ieeexplore.ieee.org/document/7168703/
また三次元構造の研究は確認されず。
今後の容量としては何の問題もない進捗だが、コスト面の問題がありハイエンドのスパコンや
特殊用途では主記憶置き換えや大容量キャッシュMRAMで何の問題もないが
PCや携帯向けではコストが高いのでチップ面積は極力下げるはずである。
またMCMでないコア実装ではDRAMやらNANDは不可能(半導体の高さが桁違い)だが
MRAMはCPUコア実装or共存が可能である。
さらに低容量では125℃で10年記録保持の確認もされているのでCPUコア付近では特に有望である、
64: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 03:29:09.20 ID:4lc6HfTf
GPUの方向に進んでも
いずれどこかで限界に到達するのは避けられない
それが同時にAIの進化の限界になる
あ、いや
限界は言いすぎかもしれないが、壁か坂か
いずれにしても進化を鈍化させることにはなりそう
いずれどこかで限界に到達するのは避けられない
それが同時にAIの進化の限界になる
あ、いや
限界は言いすぎかもしれないが、壁か坂か
いずれにしても進化を鈍化させることにはなりそう
67: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 03:40:10.06 ID:4lc6HfTf
CPUはいろいろな計算に利用できるよう作られてるけど
GPUはグラフィック用なので、決まりきった座標計算専用でいい
その代わり同じ回路をたくさん並べて同じ計算を同時並行でぐあーってやる
そういうタイプの計算なら高速なので、グラフィック以外の計算にも使い始めた
採掘にもつかえたり、AIの中のある種の計算にも使えたりする
そんな感じじゃないかな
GPUはグラフィック用なので、決まりきった座標計算専用でいい
その代わり同じ回路をたくさん並べて同じ計算を同時並行でぐあーってやる
そういうタイプの計算なら高速なので、グラフィック以外の計算にも使い始めた
採掘にもつかえたり、AIの中のある種の計算にも使えたりする
そんな感じじゃないかな
73: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 06:01:17.55 ID:3g8RakLH
>>67
記事のままだろ
pascal世代はAI分野に全力で行くって結構前から言ってる
記事のままだろ
pascal世代はAI分野に全力で行くって結構前から言ってる
68: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 04:16:22.63 ID:SGwAGM/7
それでもよくがんばったほうよ。
目標があったから今までのスピードを保てた。
目標があったから今までのスピードを保てた。
72: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 05:32:12.57 ID:TmNqAfaA
ソフトの最適化が追いついていないから、しばらく足踏みでいいよ。
今の流行はマルチスレッド対応ではなく、高級言語のC++トランスコード
今の流行はマルチスレッド対応ではなく、高級言語のC++トランスコード
78: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 06:45:00.23 ID:s13nakom
量子コンピュータとGPU、CPU、分散コンピューティングなどを総合的に使って性能を高めるのが最終段階かな?
79: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 08:15:19.54 ID:LbGhJILZ
>>78
量子コンピュータが実現したら、他の技術は吹っ飛ぶんじゃないかなあ
量子コンピュータが実現したら、他の技術は吹っ飛ぶんじゃないかなあ
82: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 12:51:48.93 ID:lTdxNnd6
とりあえず配線を銅からカーボンナノチューブに変えれば1nmまでは行けるらしいからそこまでは続くだろ
その先は知らん
その先は知らん
94: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 17:26:22.98 ID:8dfdz4Nj
処理速度はもういい、小型化 省電力化 低コスト量産化 この辺にシフトしてくれ
96: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 17:29:13.04 ID:n3J9+eIS
>>94
言われなくてもとっくにシフトしてる
スマホが高性能化できたのもそのおかげ
言われなくてもとっくにシフトしてる
スマホが高性能化できたのもそのおかげ
105: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 22:03:53.50 ID:fGGEyzp5
そもそもムーアの予測だしね。
実際70年代に言い直した2年で2倍も80年代ですでに怪しい。
停滞したあと4年で4倍とか偶然辻褄が合ったりしたけどw
SFの割にそこそこ言い当てたのはスゴイけどね。
実際70年代に言い直した2年で2倍も80年代ですでに怪しい。
停滞したあと4年で4倍とか偶然辻褄が合ったりしたけどw
SFの割にそこそこ言い当てたのはスゴイけどね。
106: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 22:41:25.75 ID:Ohi9Dr5N
それを言い出したら経済成長全般がSFだ
競争的市場は何も約束されてない
競争的市場は何も約束されてない
117: 名無しのひみつ@\(^o^)/ 2017/06/07(水) 04:24:21.11 ID:Dzl1Dw1V
この手の話はよくわからないんだが、量子コンピュータができれば万事解決するんじゃないかな?
119: 名無しのひみつ@\(^o^)/ 2017/06/07(水) 05:31:05.39 ID:InHK7zNs
ハードウェアで力任せの高速化ができなくなった以上は、昔のようにアセンブラレベルでのソフトウェア最適化で地道に高速化していくしかないなw
87: 名無しのひみつ@\(^o^)/ 2017/06/06(火) 14:53:46.49 ID:imBmd83V
まあたまたまそうなっていたのを法則と呼んでただけだしな
そうなる理論的根拠があったわけではないし
そうなる理論的根拠があったわけではないし
▼合わせて読みたい
人類滅亡まであと30年?『2045年問題について語らせてwwwwwww』2045年に1台のコンピューターの能力が完全に全人類の知能を越える件
過去35年間でデスクの上から消えていったモノたち。そして、アレだけが残った・・・
コンピューターの進化スピードが異常過ぎる件…なんか嫌な予感がする
ここ10年くらいのテクノロジーの停滞具合は異常
おすすめリンク(外部)
中国人ってよくあんなに残酷な死刑をどんどん発明してきたな・・・
【閲覧注意】山岳ベース事件とかいう胸糞事件wwwwwwwwwwwww
この記事が気に入ったら
イイね!しよう
不思議.netの最新記事をお届けします
おススメ記事ピックアップ(外部)
おススメサイトの最新記事
コメント
GPUでも、GoogleのAI専用チップ「TPU」には勝てない
小型化には限界があってムーアの法則にも終わりがあるってずっと前から言われていた。
技術的特異点が2045年だって主張してる人達に対しても、それはムーアの法則がこのまま続くことが前提の話であり、その前にムーアの法則が終わるから予想通りにはいかないってずっと言われてきてた
意外と早くムーアの法則は終わるのかもしれない
技術的特異点が2045年だって主張してる人達に対しても、それはムーアの法則がこのまま続くことが前提の話であり、その前にムーアの法則が終わるから予想通りにはいかないってずっと言われてきてた
意外と早くムーアの法則は終わるのかもしれない
そのうち量子だか有機になるんだろ
今のプロセスルールってなんちゃっての言ったもん勝ちって感じで
名前通りってわけじゃないらしいじゃん
名前通りってわけじゃないらしいじゃん
数ナノの世界まで来てるんだから、次のブレイクスルーは量子コンピュータだろうな。
そうだ。犯罪者の脳にAIインストールして並列駆動しよう。
これならムーアの法則も関係ない。
速いかどうかはわからんけど(笑)
これならムーアの法則も関係ない。
速いかどうかはわからんけど(笑)
カーツワイルも言ってるけど、過去何度もムーアの法則は終わると言われて来た。それは一時的に性能が鈍化することによって、ムーアの法則が終わるように見える。全く新しい技術によってのみそれは克服されうる。そして過去何度もそうやって克服してきた。
今回の技術全体の開発遅れは、AI自体が開発に参加することによって克服されると見られている。
今回の技術全体の開発遅れは、AI自体が開発に参加することによって克服されると見られている。
たとえゲート式の汎用量子コンピュータでも、高速化できるアルゴリズムは限られているよ。量子コンピュータはクロックや論理演算そのものが早くなるわけじゃないから。
科学技術の転換期か。ある意味本当の特異点がこの先にあるのかね。熱処理が可能になったらそのままの延長でいくんかな?
そんな事より、必ず生える育毛剤を作れ。
技術的得意点は可能なんだろうけど、
その為にはソフトウェアの整備が不可欠と。
今の複雑化したソフトウェアを整理できる人って居るのか?
得意点は不可能なのか?
その為にはソフトウェアの整備が不可欠と。
今の複雑化したソフトウェアを整理できる人って居るのか?
得意点は不可能なのか?
486の頃が懐かしいムーアの法則
何この神々の会話スレ。
シンギュラリティ信者が殺到しそうだな