userid stringclasses 377
values | course_number int64 1 15 | question_number int64 1 5 | question_content stringclasses 5
values | answer_content stringlengths 1 4.12k ⌀ | grade stringclasses 5
values |
|---|---|---|---|---|---|
C-2021-1_U65 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 情報量の期待値はエントロピー表せる。 | B |
C-2021-1_U65 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | 曖昧さに数値があったことがわかった。 | B |
C-2021-1_U65 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | null | B |
C-2021-1_U65 | 3 | 4 | 質問があれば書いてください | 特になし | B |
C-2021-1_U65 | 3 | 5 | 今日の授業の感想や反省を書いてください | 曖昧さの数値にlogを使うことが面白かった。」 | B |
C-2021-1_U89 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 曖昧さの減少は情報量である。
そして曖昧さはエントロピーのことである。 | C |
C-2021-1_U89 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | エントロピーについての理解が少し深まった。
| C |
C-2021-1_U89 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 小テストの出来が悪かった。
いろいろな定義や定理が多くて整理できていない。 | C |
C-2021-1_U89 | 3 | 4 | 質問があれば書いてください | null | C |
C-2021-1_U89 | 3 | 5 | 今日の授業の感想や反省を書いてください | 小テストで自分が今日の授業の理解をちゃんとしていないことがわかったので
もう一度しっかり復習しなければいけない。 | C |
C-2021-1_U28 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 情報源の曖昧さを表すエントロピーとその具体的な計算 | B |
C-2021-1_U28 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | エントロピーの大まかな仕組みと具体的な計算方法が分かった。 | B |
C-2021-1_U28 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | エントロピーのlogの証明がよくわからなかった。
これを自力で導けるようにしたい。 | B |
C-2021-1_U28 | 3 | 4 | 質問があれば書いてください | null | B |
C-2021-1_U28 | 3 | 5 | 今日の授業の感想や反省を書いてください | エントロピーについて前回の時より理解を深めることができた。
しかし相互情報量など複雑なものについては、1回ではあまり理解できなかったので復習をしていきたい。
| B |
C-2021-1_U84 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 確率やエントロピーによって情報の曖昧さの段階を知ることができる。 | B |
C-2021-1_U84 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | エントロピーの仕組みについて理解することができた。 | B |
C-2021-1_U84 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | なし | B |
C-2021-1_U84 | 3 | 4 | 質問があれば書いてください | なし | B |
C-2021-1_U84 | 3 | 5 | 今日の授業の感想や反省を書いてください | 計算が難しかった。 | B |
C-2021-1_U94 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 情報量の曖昧さとその減少量の数値化と情報量の期待値の求め方について学んだ | B |
C-2021-1_U94 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | 情報量の曖昧さの減少量は得られた情報量を表すということ、珍しい情報を知ったときに得た情報量は大きいこと、情報量の期待値はエントロピーと一致することが分かった。
情報量を求めたり情報量の期待値を求めることができた。 | B |
C-2021-1_U94 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 求める式は理解できたが、なぜその式になるかは分からない | B |
C-2021-1_U94 | 3 | 4 | 質問があれば書いてください | null | B |
C-2021-1_U94 | 3 | 5 | 今日の授業の感想や反省を書いてください | 前回より複雑な計算や言葉が出てきてすぐに理解するのは難しかった。
何回かスライドを戻って少しは理解できたと思う。 | B |
C-2021-1_U68 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 情報の曖昧さを定量化して、エントロピーを求めることができる。また生起確率から求められる情報量の期待値はエントロピーに等しい。 | B |
C-2021-1_U68 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | 得られる情報量、情報量の期待値を求めることができた。確率が1/2の時、エントロピーは最大値1をとる。 | B |
C-2021-1_U68 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 情報量の期待値を計算することが何にどう役立つのかよくわからなかった。 | B |
C-2021-1_U68 | 3 | 4 | 質問があれば書いてください | 特になし | B |
C-2021-1_U68 | 3 | 5 | 今日の授業の感想や反省を書いてください | 今回は特にマーカーやリアクション、メモの機能を活用できていなかったので、次回からまた積極的に自分の復習のためにも反応を残すようにしようと思った。 | B |
C-2021-1_U42 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | ある事象の生起を知ることで得られる情報量を曖昧さの減少量という。 | B |
C-2021-1_U42 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | めったに起きない事象の生起を知ることで得られる情報量は大きいということ。エントロピー関数はp=1/2のときに最大となること。 | B |
C-2021-1_U42 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | エントロピーに関して。 | B |
C-2021-1_U42 | 3 | 4 | 質問があれば書いてください | 特にないです。 | B |
C-2021-1_U42 | 3 | 5 | 今日の授業の感想や反省を書いてください | エントロピーについてまだいまいちわかってないのでこれからしっかり復習していきたい。 | B |
C-2021-1_U34 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 得られた情報からその事象に対する曖昧さがどのように減少していくかについての計算方法について学んだ。
条件付きエントロピーの計算にしかた、表記の仕方について学んだ。 | C |
C-2021-1_U34 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | エントロピーや期待値、情報の曖昧さの計算方法について出来る様になった。 | C |
C-2021-1_U34 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 条件付きエントロピーの計算理解できなかった。 | C |
C-2021-1_U34 | 3 | 4 | 質問があれば書いてください | null | C |
C-2021-1_U34 | 3 | 5 | 今日の授業の感想や反省を書いてください | 今まで考えたこともなかった、情報の曖昧さについての変化について学んだ。覚えることはできたが、深く理解はできなかったので復習して、どうしてそうなるのかを理解したい。 | C |
C-2021-1_U35 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 例を通して、情報量や情報源の曖昧さについて学習しました。情報量の期待値、エントロピー関数とはどういうものか、またその関数計算について確認しました。 | B |
C-2021-1_U35 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | 「猫のご機嫌」の例を通して、期待値や条件付きエントロピーについてその求め方がわかりました。 | B |
C-2021-1_U35 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | U(M)に関する証明は完全に理解できませんでした。 | B |
C-2021-1_U35 | 3 | 4 | 質問があれば書いてください | 特にありません。 | B |
C-2021-1_U35 | 3 | 5 | 今日の授業の感想や反省を書いてください | エントロピーなどは若干の不安がありましたが、今日の講義ではそのあたりの確認ができてよかったです。 | B |
C-2021-1_U20 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | エントロピーとは情報のあいまいさを表す指標であり、あいまいさU(M)はlog2xの関数に相当し、新たな情報が得られるたびに情報のあいまいさは減少していく。特に、まれな状況に関する情報になるほど得られる情報量は多くなる。 | A |
C-2021-1_U20 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | 得られる情報量や、その期待値の計算を行うことができた。また、エントロピーが何か前回はいまひとつわからなかったが、今日の講義で情報のあいまいさを表しているものなのだということを学んだ。 | A |
C-2021-1_U20 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 相互情報量に関する部分が難しくてまだ十分に理解できなかった。また23ページの平均を求める式の部分の下から3行目の部分で、H(p1)となっているがなぜH(p2)を足さなくていいのかがよくわからなかった。
| A |
C-2021-1_U20 | 3 | 4 | 質問があれば書いてください | (3)部分で書いた23ページの部分がわかりません | A |
C-2021-1_U20 | 3 | 5 | 今日の授業の感想や反省を書いてください | 今日は計算をすることが多かった。例題などで計算の仕方に慣れられるようにしたい。 | A |
C-2021-1_U79 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 情報を得ることである事象に関する曖昧さが減っていく。滅多に起きない情報を手にするとより曖昧さが減る。
ある一つの情報により得られるもう一個の事象に関する曖昧さを相互情報量という | A |
C-2021-1_U79 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | 最初の、情報を得ることによる曖昧さの減少の部分は分かった。 | A |
C-2021-1_U79 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 情報の期待値や相互情報量はあまりわからなかった。条件付きエントロピーが最もよくわからなかった。 | A |
C-2021-1_U79 | 3 | 4 | 質問があれば書いてください | null | A |
C-2021-1_U79 | 3 | 5 | 今日の授業の感想や反省を書いてください | ある一つの情報からたくさんのことを知れるということがわかった。 | A |
C-2021-1_U85 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 情報量というのは、その情報の曖昧さと密接に関係している。曖昧さがなくなればなくなるほど情報量は大きくなる。希少な事象であればあるほど、大きくなる。複数の事象の関係を求める際は、条件付き確率のようにして絞って足す必要がある。 | B |
C-2021-1_U85 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | 情報量というのが、曖昧さという表現もできること。これから得る情報によって得られるであろう推定情報量のことを期待値ということ。情報量は式を使って求めることができること。 | B |
C-2021-1_U85 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | エントロピーの定義がいまだによく掴めていません。 | B |
C-2021-1_U85 | 3 | 4 | 質問があれば書いてください | 特になし。 | B |
C-2021-1_U85 | 3 | 5 | 今日の授業の感想や反省を書いてください | 期待値という言葉で情報量の推定を表すのは面白いなと思いました。今まで確率の問題などやってきたことが、情報量などに使えるとは思っていなくて、とても面白かったです。エントロピーの定義をもっとちゃんと把握しておけば、さらに面白かっただろうにな、と反省しています。 | B |
C-2021-1_U23 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 一様に分布する情報源Sの曖昧さはSのエントロピーに等しい。生起確率pの事象が起こったことを知ることで得られる情報量(=-log2p)とは、曖昧さの減少量である。どの事象が生起したのかを教えてもらうとき、得られる情報量の期待値は、エントロピーに一致する。エントロピーは、p=1/2のときに最大値をとる。確率変数X,Yの相互情報量は、X,Yの関係の強さを表す。 | B |
C-2021-1_U23 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | 曖昧さの減少量が情報量であるということがわかった。前回の講義で学んだエントロピーの式で、対数の底が2である理由が何となくわかった。情報量の期待値を平均の考えるほうが、感覚的にわかりやすかった。 | B |
C-2021-1_U23 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 復習すると、初め理解できなかったことが理解できた。 | B |
C-2021-1_U23 | 3 | 4 | 質問があれば書いてください | null | B |
C-2021-1_U23 | 3 | 5 | 今日の授業の感想や反省を書いてください | 情報量の期待値を、平均と考えるほうが、感覚的にわかりやすかった。曖昧さも情報量の期待値も、言葉の定義が違うのに、エントロピーの値と一致するのが、不思議だと感じた。 | B |
C-2021-1_U33 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 情報Aの曖昧さはAのエントロピーに等しい。
情報量の期待値はエントロピーに等しい。
相互情報量は事象XとYが無関係の時0になる。 | B |
C-2021-1_U33 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | エントロピーは情報量に関係していること。
| B |
C-2021-1_U33 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | エントロピーっていう言葉がでてくると頭が分からないモードになってしまった。 | B |
C-2021-1_U33 | 3 | 4 | 質問があれば書いてください | いつも曖昧さがU、エントロピーがH、相互情報量がIであらわされるのですか? | B |
C-2021-1_U33 | 3 | 5 | 今日の授業の感想や反省を書いてください | いろいろな言葉や定義がでてくるとわからなくなってくるので、言葉を整理しながら復習したい。 | B |
C-2021-1_U31 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 事象が起こる確率からエントロピーを求めることによって、情報の期待値や情報の減少などを求めていることが分かった。 | B |
C-2021-1_U31 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | エントロピーの概要が少しわかった。 | B |
C-2021-1_U31 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 加法性がいまいち理解できなかった。 | B |
C-2021-1_U31 | 3 | 4 | 質問があれば書いてください | さいころ二つの場合の加法性の説明が理解できなかった。 | B |
C-2021-1_U31 | 3 | 5 | 今日の授業の感想や反省を書いてください | 数学的な考え方があって面白かった。 | B |
C-2021-1_U10 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 情報の量を表すためにはどのようにすればよいか。
2つの現象が起こった場合、相互の情報量はどのようになるか。 | B |
C-2021-1_U10 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | 曖昧さの減少が得られた情報量である。
情報量の期待値はエントロピーに一致する。
2つの事象が無関係の場合、相互情報量は0になる。 | B |
C-2021-1_U10 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | U(M)=log₂Mの証明 | B |
C-2021-1_U10 | 3 | 4 | 質問があれば書いてください | null | B |
C-2021-1_U10 | 3 | 5 | 今日の授業の感想や反省を書いてください | 今回の内容は計算や定義が多くて難しかったので演習問題などを通して復習しておきたい。
情報の量というのがどのようなものか分からなかったけど、曖昧さの減少ということを知り驚いたとともに、それが数値で表せること感心した。 | B |
C-2021-1_U59 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | 曖昧さが減少すると得られた情報の量は増える
| B |
C-2021-1_U59 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | エントロピーの値H(p)は、p=1/2の時に最大値をとる
| B |
C-2021-1_U59 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | エントロピーの計算(相互情報量など) | B |
C-2021-1_U59 | 3 | 4 | 質問があれば書いてください | null | B |
C-2021-1_U59 | 3 | 5 | 今日の授業の感想や反省を書いてください | エントロピーというものが初めてで馴染みのないものだったので難しく感じました。
計算がよくわかっていないので、演習を通してしっかり理解できるようにしたいです。 | B |
C-2021-1_U6 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | null | C |
C-2021-1_U6 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | null | C |
C-2021-1_U6 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | null | C |
C-2021-1_U6 | 3 | 4 | 質問があれば書いてください | null | C |
C-2021-1_U6 | 3 | 5 | 今日の授業の感想や反省を書いてください | null | C |
C-2021-1_U36 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | ・情報量とは
・エントロピーとの関係
・同時確率と条件付確率、条件つきエントロピー | A |
C-2021-1_U36 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | ・情報量=曖昧さの減少→U(M)=log2M
☆単調増加、加法性がある
☆Mは生起した事象の確率、これを知ったことによる曖昧さの減少が-log2M
・得られる情報量の期待値=エントロピー | A |
C-2021-1_U36 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | もう一度復習すればわかりそうです | A |
C-2021-1_U36 | 3 | 4 | 質問があれば書いてください | null | A |
C-2021-1_U36 | 3 | 5 | 今日の授業の感想や反省を書いてください | まだ納得できていない部分もありますが、エントロピーと確率の関係が興味深いです。証明を自分でしてみるとしっかり理解できたのでよかったです。ゴールデンウイークで忘れないように復習を定期的にしていこうと思います。 | A |
C-2021-1_U78 | 3 | 1 | 今日の内容を自分なりの言葉で説明してみてください | エントロピーの計算 | C |
C-2021-1_U78 | 3 | 2 | 今日の内容で、分かったこと・できたことを書いてください | あらかたの計算過程 | C |
C-2021-1_U78 | 3 | 3 | 今日の内容で、分からなかったこと・できなかったことを書いてください | 複雑な計算 | C |
C-2021-1_U78 | 3 | 4 | 質問があれば書いてください | null | C |
C-2021-1_U78 | 3 | 5 | 今日の授業の感想や反省を書いてください | 難しかったので演習していきたい | C |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.