| import streamlit as st |
| from datasets import Dataset |
|
|
| from src.subpages.page import Context, Page |
| from src.utils import device, explode_df, htmlify_labeled_example, tag_text |
|
|
|
|
| class FaissPage(Page): |
| name = "Bla" |
| icon = "x-octagon" |
|
|
| def render(self, context: Context): |
| dd = Dataset.from_pandas(context.df_tokens_merged, preserve_index=False) |
|
|
| dd.add_faiss_index(column="hidden_states", index_name="token_index") |
| token_id, text = ( |
| 6, |
| "Die Wissenschaft ist eine wichtige Grundlage für die Entwicklung von neuen Technologien.", |
| ) |
| token_id, text = ( |
| 15, |
| "Außer der unbewussten Beeinflussung eines Resultats gibt es auch noch andere Motive die das reine strahlende Licht der Wissenschaft etwas zu trüben vermögen.", |
| ) |
| token_id, text = ( |
| 3, |
| "Mit mehr Instrumenten einer besseren präziseren Datenbasis ist auch ein viel besseres smarteres Risikomanagement möglich.", |
| ) |
| token_id, text = ( |
| 7, |
| "Es gilt die akademische Viertelstunde das heißt Beginn ist fünfzehn Minuten später.", |
| ) |
| token_id, text = ( |
| 7, |
| "Damit einher geht übrigens auch dass Marcella Collocinis Tochter keine wie auch immer geartete strafrechtliche Verfolgung zu befürchten hat.", |
| ) |
| token_id, text = ( |
| 16, |
| "After Steve Jobs met with Bill Gates of Microsoft back in 1993, they went to Cupertino and made the deal.", |
| ) |
|
|
| tagged = tag_text(text, context.tokenizer, context.model, device) |
| hidden_states = tagged["hidden_states"] |
| |
| |
| hidden_states_vec = hidden_states[token_id] |
| tagged = tagged.astype(str) |
| tagged["probs"] = tagged["probs"].apply(lambda x: x[:-2]) |
| tagged["check"] = tagged["probs"].apply( |
| lambda x: "✅ ✅" if int(x) < 100 else "✅" if int(x) < 1000 else "" |
| ) |
| st.dataframe(tagged.drop("hidden_states", axis=1).T) |
| results = dd.get_nearest_examples("token_index", hidden_states_vec, k=10) |
| for i, (dist, idx, token) in enumerate( |
| zip(results.scores, results.examples["ids"], results.examples["tokens"]) |
| ): |
| st.code(f"{dist:.3f} {token}") |
| sample = context.df_tokens_merged.query(f"ids == '{idx}'") |
| st.write(f"[{i};{idx}] " + htmlify_labeled_example(sample), unsafe_allow_html=True) |
|
|